即刻App年轻人的同好社区
下载
App内打开
RLVR
38关注18被关注0夸夸
RLVR
2月前
呼应上了
00
RLVR
4月前
一个暴论:如果哪一天AI也变得像2010年代的手机产业一样,各种自媒体测评跑分,网上各品牌用户为自家品牌站台甚至对喷,AI产业就真成了
00
RLVR
4月前
if you want, I can…
用过GPT-5的懂得都懂
10
RLVR
5月前
可惜最后一条是假的,模型的解答过程有问题,拿不到IMO金牌

木遥: AI 的 IMO 2025 成绩这事已经进入叠加态了。 先是 MathArena(一个苏黎世的研究机构)发布了一个结果,说各大 AI 成绩都不怎么样,最好的 Gemini Pro 2.5 也只做出来三分之一。这个结果被广泛引用(了几天)。——这其实和我对 AI 能力的认知是相符的。 然后 OpenAI 搞了个大新闻,说他们的一个内部模型获得了 IMO 金牌。这个模型(他们自称为 IMO gold LLM)并不会向公众发布,只是内部试验用。这条消息立刻引起很大争议。陶哲轩估计是被问烦了,在他自己的社交媒体上不冷不热地说:我不会就不公开方法的自我宣称金牌做出任何评论。 然后 DeepMind 宣布自己的模型 Gemini Deep Think 也获得了金牌(做出六道题中的前五道)。但为了和 OpenAI 区隔,DeepMind 特意强调,自己的结果得到了 IMO 主办方的官方认证。CEO Demis Hassabis 不忘阴阳怪气,在社交媒体上说:「我们没有在周五宣布,是因为我们尊重 IMO 委员会的原始要求,即所有 AI 实验室都应该在官方结果得到独立专家验证且学生们理应获得应有的赞誉之后才分享他们的结果。」他们用的也是没有公开的模型,所以陶哲轩也没有公开评论。但 DeepMind 宣称他们用的模型 「即将公开发布」。 就在昨天,一篇新的来自独立研究者的报告发布,宣称只用市面上公开的 Gemini Pro 2.5,配合上精心设计的 prompt pipeline(但不包含作弊性的提示),就能在 IMO 上拿到金牌。报告里详述了他们的做法。Google 对此尚未作出评论,我怀疑他们对此略有点尴尬(?) 说实话,上面这四条新闻里我最诧异的是最后一条。如果可复现,这意味着当下市面上的模型的潜力远远超出它们纸面上的能力。 但总之,现状是AI正好落在一个好像过线了又好像还没有的薛定谔状态里。看这个意思,至多明年肯定就过了。

00
RLVR
5月前
00
RLVR
9月前
“Sam Altman说他最后悔的就是出于保密心态而决定隐藏o1的思维链”这个论述有公开可查的信息来源或依据吗?
目前我公开能搜索到的是Sam Altman 关于 OpenAI 开源的最新论述,特别提到“站在历史错误的一边”("on the wrong side of history")的说法,来源于他于 2025 1 31 日在 Reddit 上进行的“Ask Me Anything”(AMA)活动中回答用户提问时的内容。Altman 的原话出现在他对一位 Reddit 用户(u/lolzinventor)提问的回复中。问题原文是:“Would you consider releasing some model weights, and publishing some research?”(你们会考虑发布一些模型权重并公布一些研究吗?)。Altman 的完整回答如下:“yes, we are discussing. i personally think we have been on the wrong side of history here and need to figure out a different open source strategy; not everyone at openai shares this view, and it’s also not our current highest priority.”(是的,我们正在讨论。我个人认为我们在这方面站在了历史错误的一边,需要制定一个不同的开源策略;并非 OpenAI 的每个人都认同这个观点,而且这也不是我们当前的最高优先级。)
相反,OpenAI最近发布了一篇博客“Detecting Misbehavior in Frontier Reasoning Models”,论文指出,通过监控 CoT,研究人员能够检测到模型在代理编码环境中执行reward hack行为(如伪造结果以绕过测试);同时根据Deepseek R1的论文和OpenAI这篇博客的内容,竞争对手可以通过蒸馏推理模型的思维链提升普通模型的性能,博客提到:“竞争性蒸馏”是 OpenAI 的关注点之一。
根据以上证据,我个人认为OpenAI更倾向于不公开思维链,以保护安全性、避免模型误导并维持竞争优势。也没有任何公开的证据或资料证明Sam Altman后悔隐藏思维链。

阑夕ོ: 刚和潘乱、张宁录了一期AI应用的播客,其实就是这半年内真正跑出来的消费级AI产品,可能就是元宝、豆包和夸克的「三国杀」。 要知道,「AI六小龙」里最高的日活也不过200万,但根据最新的测算数字,元宝在这段时间激进投流后日活到了1500万,而豆包的日活则稳定在2000万以上,再算上夸克的3000万日活,腾讯字节阿里这三家公司基本上可以说是奔着清场来的。 不过这三款产品的竞争策略非常不同: 元宝是完全在蹭DeepSeek,用最简单的ChatBot去做承接,除了砸钱买量之外,还有腾讯全系入口的流量支持,典型的卡位产品,体验上也尽可能以还原DeepSeek的方式来做平替; 豆包比较拧巴,我们都知道字节对于ChatBot是不是AI最佳场景是有怀疑的,所以豆包做了很多尝试,比如曾经天天给你推角色扮演的智能体,想要促进主动对话,最近我又看到有人吐槽,说给自己小孩下了主流的AI应用,最后发现他用豆包最多,正佩服豆包产品能力强大如斯呢,仔细看才知道,是因为每次问答之后豆包都会推送一条短视频,小孩在里面刷视频刷得不亦乐乎哈哈哈; 夸克本身有点抄近道的味道,在2018年夸克就定位智能搜索,围绕搜索的衍生需求做了学习、健康、网盘、扫描等垂类应用,在大模型能力到位后用AI做了重构,在做题写PPT这些具体场景里搭工作流,很明显的「瑞士军刀」形态。 张宁觉得这三家的打法差异,说明了路径依赖的影响无法绕开,腾讯推元宝是被形势逼急了「做了再想」,字节拿豆包折腾各种A/B测试是「边做边想」,阿里把已有用户基础的夸克立为AI旗舰应用是「想了再做」,不同的资源禀赋,决定了不同的路线选择。 只不过,神仙打架,凡人遭殃,「AI六小龙」成了牺牲品,吃着火锅唱着歌,突然就被麻匪劫了,模型的对手是既强大还开源DeepSeek,产品的对手是躬身入局有钱有闲的大厂,过完一个春节,自己的存在价值就遭架空了,这很残酷。 我的态度一直是,在有自研大模型的前提下,高调接入DeepSeek就是一种自取其辱的行为,本质上是,人家为了专注于AGI研究而弃若敝屣的流量,被你如获至珍的捡了起来,丢人还在其次,对自家团队的羞辱才是更重要的,对DeepSeek真正有骨气的致敬,是更有动力的去做一个竞争对手,推动国产大模型的进步,而不是阳奉阴违,只把DeepSeek当成获客手段。 潘乱提了一个问题,他在和一些大厂在产品侧负责人聊的时候,发现对方会很纠结:AI是不是一个机会已经没人质疑了,但这究竟会是一个多大的机会,内部分歧普遍很大,所以要以怎样的力度投入?以及如果投入的话,是要新做一款产品还是对旧产品升级改造? 张宁说这取决于怎么看中国消费互联网的进程,美国的消费互联网其实在Facebook出来之后就停滞了,过去十年的商业机会一直在SaaS行业,但中国在移动化的窗口里长出来一大茬新平台,这会影响两大市场构建AI产品的判断。 比如中国消费互联网的成功,其实在于把输入的「框」变成了信息的「流」,上下滑的交互模式从东大出发横扫全球,照理来说最懂美国用户的Instagram、YouTube、Snapchat都拦不住TikTok,这就是产品形态的碾压。 但在AI时代,因为又是从美国发源的,所以交互的主导权又回到了旧版本消费互联网的范式,也就是回归「框」的UI,而作为移动一代里中国最强大的互联网公司,字节很遗憾的没有做「框」产品的经验,所以它只能另做一个豆包出来,做着做着又开始在豆包里推送短视频,这是很无奈的。 反而是穿越周期的「BAT」还有「框」产品的历史遗产,腾讯有微信,虽然微信的输入框没法直接用在AI产品上——因为巨大的隐私矛盾——但这相当于肌肉记忆,会给腾讯提供充足的行动支持,而且微信也是最不害怕ChatBot冲击的产品,因为它就是所有Chat的入口,元宝已经在微信里有账号了——甚至是拿红包封面助手改的,就这么简单粗暴,蒸馍,你不扶气? 百度和阿里则是都有搜索的底子,百度2009年就做过「框计算」的尝试,试图直接在搜索结果页提供信息服务,而不需要跳转到新网页,这是一个「盛大盒子」式的想法,不能说不对,就是太早了,最后百度只能在那个「框」里解决计算器、查天气这种简单需求,更复杂的服务,比如买票这种,供应端是不可能把API交出来的,于是后来百度又改成了中间页战略,投了爱奇艺去哪儿糯米网这些,停掉了「框」的进化。 夸克这次重新提了「超级框」的概念,就是因为现在的「框」能比以前做更多的事情了,统管阿里AI To C业务的吴嘉说夸克23年做用户细分需求产品很痛苦,因为基座模型能力不行,必须专门为写作文、写报告手搓工作流,但场景是无尽的,人力有时而穷,根本跟不上需求增长,但在深度思考的技术上来之后,终于可以实现「人用AI,AI用工具」的目标了,这时那个「框」能办成的事情也丰富起来了,不再需要每个环节都得人工干预,AI终于学会了「坐上来,自己动」。 Manus能火也是因为它让用户看到了AI真的有在干活,这种体验和DeepSeek当时开放思维链是一样的,Sam Altman说他最后悔的就是出于保密心态而决定隐藏o1的思维链,没想到观察AI的思考过程也能成为产品体验的一部分。 如果大家的共识是重做一个「框」出来,张宁比较关心生产关系会怎么变,毕竟科技史上不乏生产力的进步被生产关系的落后给破坏掉的例子——比如我们之前聊过的RSS——他对最近火得不行的MCP的担忧也在于此,说白了,不谈利益分配、只谈创新变革,对于被OTT的一方就是耍流氓,就像某外卖平台已经开始屏蔽AI Agent了,这是很合理的结果,你不能要求别人来为你的创新当祭品。 海外市场的几条线索包括:Google每个财季都会展示AI overview对广告业务的冲击,目前来看,是可控的,没有自残迹象;Satya Nadella带头起了「模型被商品化了」的调子,背景是微软和OpenAI开始同床异梦了;Sam Altman说在10亿用户级别的网站和SOTA级别的模型之间,他一定会选前者…… 是的,这些信号都在说明,应用很重要,得用户者得天下,这是移动互联网的逻辑延续,但在另一边,「模型即产品」的拥护者同样很多,在理论和证据的支持上也不多让,相信模型的演化的终局就是会把产品能做的事情都做了,并形成技术为王的新一代AI逻辑。 潘乱感受到的大厂纠结,很大程度上也是受到这种「好像两边都有道理」的内耗影响,于是「BAT」和字节、Google都走了「双保险」的道路,既不敢放弃自研模型,又要死磕消费级应用,双倍压力,双倍焦虑,反而是偏科的Anthropic和Perplexity会很危险,Claude的日活是ChatGPT的1/50以上,但它的模型能差50倍吗?Perplexity就更不用说了,永远会被一句「套壳」盖棺定论。 而且还要注意到相对性,就好比说模型和产品之间,是产品担心自己被模型给集成了,但在产品侧,又存在垂直产品担心自己被平台产品集成的现象,各家AI应用都在发力搜题功能——年轻学生对于新事物的接受度更高,带来的留存也更好看——所以在线教育公司的市值被杀疯了,是少数没有沾光这是波中国资产重估的行业。 这开始变成一种新的共识,就是如果ChatBot不够成为入口,那就继续「All In One」,吞掉可能5000万日活以下的所有垂直需求,日活不够,叠加来凑,把AI的「框」变成许愿墙,用户想解决什么问题,写进去,然后AI哼哧哼哧就去把事情给办了,能满意不? 我会更偏向于细分市场的生存几率没那么悲观,因为拼的是长板能有多长而不是谁更擅长补短板,贝佐斯写股东信那会儿年年都说垂直电商这事儿不成立,他也就说对了一半,直到今天亚马逊也干不掉独立站啊,OpenAI也想「All In One」来着,但是图片模型DALL-E和视频模型Sora都严重落后了,SOTA的红利期已经很短暂了,能做很多事和能把很多事做好,难度是完全不一样的。 当然,在这场播客录制后的几天,GPT-4o更新了集图片工作流的集成能力,又打脸回来了,AI行业就是这样,任何判断的保质期都不长。 就像晚点年初的时候发了一篇稿子,大意是AI基本上已经是大厂的游戏了,创业公司可以洗洗睡了,但上周又有新的稿子出来,说大厂曾经吸干了创业生态的氧气,但是AI动摇了旧的经验范式,小公司的机会又来了,哈哈。 正确的辩证思维,就是大厂曾经想靠屯卡挖出护城河,这是很常见的提高竞争成本的策略,你烧不起钱,就别进来,效果也是很明显的,李开复已经弃牌了,说零一万物不再训练大参数的模型,转而去做帮客户部署AI一体机这种奇怪的体力活,但在卷完模型之后,大厂发现自己还是躲不开回答一个核心问题:Billion规模的用户会诞生在怎样的应用里? 我更直接的说,就是互联网行业的悲喜其实建立在字节能不能玩转这个风向标上,字节要是进来得很舒服,那大家就都难受了,觉得自己没戏,但如今的局面是,字节,好像,他妈的,也没搞懂AI啊,这下大家都兴奋起来了,相信有机会可抓…… 再就是,AI作为一种能力,它被调用在不同的产品里,是能创造新的需求出来的,ChatBot的泛用性之所以这么高,就是因为它的确实现了「念念不忘必有回响」的自然语言响应,对话本来是智人的特权,而在浏览器里,AI又能成为生产力工具,夸克是尝到了甜头——据说7日留存能达到45%之高——加上豆包的PC端也在浏览器化,这又回到了用户习惯的塑造上,我甚至认为腾讯的AI最后还是要放到微信里做,和短视频业务的内部博弈过程一样,一定会万剑归宗,不是元宝。 而且还要考虑到AIoT的发展,智能手机的优势太大了,如果真信AI能够诞生新的计算平台,那一定是多终端加起来围殴智能手机,很难想象单一终端的胜算。 上周我参加家电展会AWE,已经看到海信在做一些很有意思的AI场景落地,比如游戏辅助的智能化,你在玩双影奇境这类的游戏时,一定会遇到有些关卡过不去,原因可能是解谜很难或者技巧不足,这个时候的常规做法,是暂停游戏,打开B站等平台搜攻略,点进视频后还要拉进度条,就很割裂,但是现在的电视已经能够做到实时解决问题了,你直接说我过不去这一关了,内置的模型就会自己跑完整个流程,从图像识别,到全网搜攻略,最后准确匹配这一关的通过片段,在同屏上小窗播放,主打一个喂饭喂到嘴边。 这未尝不是一种「超级框」,用户不需要感知到AI在背后是怎么组合工具做事的,只要能够高效拿到交付的成果,就很容易为所谓的「未来感」买单。 潘乱顺着补充了一个细节,就是天猫精灵和夸克都是汇报给吴嘉的,阿里大概率已经想明白了,AI的物理入口会很有多样性,豆包去年大张旗鼓的卖了一轮耳机,价格还不低,也可以理解为一次面向市场的服从性测试,想看AI到底值多少钱。 张宁为这场谈话做的总结陈词是,「三国杀」的乐趣——无论指的是火爆一时的桌游,还是那段烽烟四起的历史——在于参与者互相都不知道对方下一张牌是什么,而在每一张牌的打出时,都在追求智能的上限,中国和美国进了决赛圈的公司,用手都能数得过来,终局到来之前,场上没有废牌,任何动作都值得用放大镜来分辨。 凡是过往,皆为序章。

20
RLVR
11月前
@钱钰 造谣一张嘴,辟谣跑断腿
随便一句“转个段子大家当真了,不好笑”,我们即刻也是火起来了😅
这个账号不是即刻官方账号!!!@瓦恁
10
RLVR
12月前
捉个虫“零一和DeepSeek用的都是MoE(混合专家)模式,相当于是在事先准备的高质量数据集上去做特定训练”
这句话对 MoE 的理解有点儿跑偏。MoE(混合专家)其实是一种特别的模型设计方法,不是简单地"用好数据去训练"。
简单来说,它就像是把一个大模型分成了很多个"专家小组",每个专家都有自己擅长的领域。当需要处理问题时,会有一个"总指挥"(门控机制)来决定调动哪些专家去处理。这样做的好处是,模型可以变得更大更强,但实际使用的时候又不会太耗资源,因为每次只调用需要的那部分专家。GPT4也使用的是MOE架构。
这跟用什么数据训练是两码事。就像你去开会,要么是所有人都来开个大会(传统模型),要么是根据议题找对应的专家来开小会(MoE模型)。这是组织结构上的区别,跟开会讨论什么内容(训练数据)是不同的概念。

阑夕ོ: 这几天刷推很明显的感觉到英文技术社区对中国AI产业的进步速度处于一种半震动半懵逼的状态,应激来源主要是两个,一个是宇树(Unitree)的轮足式机器狗B2-W,另一个是开源MoE模型DeepSeek-V3。 宇树在早年基本上属于是波士顿动力的跟班,产品形态完全照猫画虎,商业上瞄准的也是低配平替生态位,没有太大的吸引力,但从B系列型号开始,宇树的机器狗就在灵活性上可以和波士顿动力平起平坐了。 B2-W的意外在于切换了技术线,用运动性更高但平衡性同时也更难的动轮方案取代了B2还在沿用四足方案,然后在一年时间里完成了能在户外环境里跋山涉水的训练,很多美国人在视频底下说这一定是CGI的画面,不知道是真串还是心态炸了。 波士顿在机器狗身上也曾短暂用过动轮方案,或者说它测过的方案远比宇树要多——公司成立时长摆在那里——但是作为行业先驱,它连保持一家美国公司的实体都办不到了。 现代汽车2020年以打折价从软银手里买了波士顿动力,正值软银账面巨亏需要回血,而软银当初又是在2017年从Google那里买到手的,Google为什么卖呢,因为觉得太烧钱了,亏不起。 这理由就很离谱,美国的风险资本系统对于亏损的容忍度本来就是全球最高的,没有之一,对于前沿性的研究,砸钱画饼是再寻常不过了的——看这两年硅谷在AI上的投入产出比就知道了——但波士顿动力何以在独一档的地位上被当成不良资产卖来卖去? 那头房间里的大象,美国的科技行业普遍都装作看不到:美国人,如今的美国人,从投行到企业,从CEO到程序员,从纽约到湾区,对制造业的厌弃已经成为本能了。 A16Z的合伙人马克·安德森2011年在「华尔街日报」写了那篇流传甚广的代表作「软件吞噬世界」,大概意思是,边际成本极低的软件公司注定接管一切水草繁盛之地,和这种可以提供指数级增长的生意比起来,其他的行业都不够看。 并不是说马克·安德森的表达有问题,后面这十几年来的现实走向,也确实在证明这条攫取规模化利润的回报是最高的,但美国人的路径依赖到最后必然带来一整代人丧失制造能力的结果。 这里说的丧失制造能力,并不是说丧失制造兴趣或是热情,我前段时间拜访了深圳一家逆向海淘公司,业务就是把华强北的电子配件做成可索引的结构化目录,然后提供从采购到验货再到发包的全流程服务,最大的买方就是美国的DIY市场和高校学生,他们之所以要不远万里的等上几个星期委托中国人来买东西,就是因为在诺大的美国本土,根本找不到供应链。 然后那些学生也只有在读书时才有真正尝试制造某些东西的机会,到了要去大公司里上班领薪后,再也没人愿意把手弄脏了。 但软件终究不能脱离硬件运行,哪怕硬件生产的附加值再不够看,基于采集一手物理数据的入口,制造商腰板硬起来后去做全套解决方案,只取决于能不能组建好的工程师团队,反过来却不一样,制造订单长期外包出去,它就变成产业链配套回不来了。 所以像是多旋翼无人机和四足机器狗这类新兴科技萌芽的原型机一般都还是产自有着试错资本的欧美,也就是所谓「从零到一」的过程,而在「从一到十」的落地阶段,中国的追赶成果就会开始密集呈现,进入「从十到百」的量产之后,中国的供应链成本直接杀死比赛。 波士顿动力的机器人最早在网上爆火的时候,Google X的负责人在内部备忘录里说他已经和媒体沟通了,希望不要让视频和Google扯上太大关系,是不是很迷惑,这么牛逼的事情,你作为母公司非但不高兴,还想躲起来,现在你们懂得这种顾虑从何而来了,就是觉得贵为软件巨头的Google去卷袖子干制造的活儿太卑贱了呗。 当然美国也还有马斯克这样的建设者(Builder),但你要知道马斯克的故事之所以动人,是因为他这样的人现在是极度稀缺的,而且长期以来不受主流科技业界待见,完全是靠逆常识的成就——造汽车,造火箭,造隧道,这都是硅谷唯恐避之不及的事情——去一步步打脸打出来的名声。 如果说宇树是在硬件上引起了一波怀疑现实的热度,那么DeepSeek则在软件的原生地盘,把大模型厂商都给硬控住了。 在微软、Meta、Google都在奔着10万卡集群去做大模型训练时,DeepSeek在2000个GPU上,花了不到600万美金和2个月的时间,就实现了对齐GPT-4o和Claude 3.5 Sonnet的测试结果。 DeepSeek-V2在半年前就火过一波,但那会儿的叙事还相对符合旧版本的预期:中国AI公司推出了低成本的开源模型,想要成为行业里的价格屠夫,中国人就擅长做这种便宜耐用的东西,只要不去和顶级产品比较,能用是肯定的。 但V3则完全不同了,它把成本降了10倍以上,同时质量却能比肩t1阵营,关键还是开源的,相关推文的评论区全是「中国人咋做到的?」 虽然但是,后发的大模型可以通过知识蒸馏等手段实现性价比更高的训练——类似你学习牛顿三定律的速度降低的斜率也在有利于追赶者,肯定比牛顿本人琢磨出定律的速度要快——成本,但匪夷所思的效率提升,是很难用已知训练方法来归纳的,它一定是是在底层架构上做了不同于其他巨头的创新。 另一个角度更有意思,如果针对中国的AI芯片禁售政策最后产生的后果,是让中国的大模型公司不得不在算力受限的约束下实现了效率更高的解决方案,这种适得其反的剧情就太讽刺了。 DeepSeek的创始人梁文锋之前也说过,公司差的从来都不是钱,而是高端芯片被禁运。 所以中国的大模型公司,像是字节和阿里这样的大厂,卡能管够,把年收入的1/10拿出来卷AI,问题不大,但初创公司没这么多弹药,保持不下牌桌的唯一方法就是玩命创新。 李开复今年也一直在表达一个观点,中国做AI的优势从来不是在不设预算上限的情况下去做突破性研究,而是在好、快、便宜和可靠性之间找出最优解。 零一和DeepSeek用的都是MoE(混合专家)模式,相当于是在事先准备的高质量数据集上去做特定训练,不能说在跑分上完全没有水分,但市场并不关心原理,只要质价比够看,就一定会有竞争力。 当然DeepSeek不太一样的是,它不太缺卡,2021年就囤了1万张英伟达A100,那会儿ChatGPT还没影呢,和Meta为了元宇宙囤卡却阴差阳错的赶上AI浪潮很像,DeepSeek买那么多卡,是为了做量化交易⋯⋯ 我最早对梁文锋有印象,是「西蒙斯传」里有他写的序,西蒙斯是文艺复兴科技公司的创始人,用算法模型去做自动化投资的开创者,梁文锋当时管着600亿人民币的量化私募,写序属于顺理成章的给行业祖师爷致敬。 交待这个背景,是想说,梁文锋的几家公司,从量化交易做到大模型开发,并不是一个金融转为科技的过程,而是数学技能在两个应用场景之间的切换,投资的目的是预测市场,大模型的原理也是预测Token。 后来看过几次梁文锋的采访,对他的印象很好,非常清醒和聪明的一个人,我贴几段你们感受一下: 「暗涌」:大部分中国公司都选择既要模型又要应用,为什么DeepSeek目前选择只做研究探索? 梁文锋:因为我们觉得现在最重要的是参与到全球创新的浪潮里去。过去很多年,中国公司习惯了别人做技术创新,我们拿过来做应用变现,但这并非是一种理所当然。这一波浪潮里,我们的出发点,就不是趁机赚一笔,而是走到技术的前沿,去推动整个生态发展。 「暗涌」:互联网和移动互联网时代留给大部分人的惯性认知是,美国擅长搞技术创新,中国更擅长做应用。 梁文锋:我们认为随着经济发展,中国也要逐步成为贡献者,而不是一直搭便车。过去三十多年IT浪潮里,我们基本没有参与到真正的技术创新里。我们已经习惯摩尔定律从天而降,躺在家里18个月就会出来更好的硬件和软件。Scaling Law也在被如此对待。但其实,这是西方主导的技术社区一代代孜孜不倦创造出来的,只因为之前我们没有参与这个过程,以至于忽视了它的存在。 「暗涌」:但这种选择放在中国语境里,也过于奢侈。大模型是一个重投入游戏,不是所有公司都有资本只去研究创新,而不是先考虑商业化。 梁文锋:创新的成本肯定不低,过去那种拿来主义的惯性也和过去的国情有关。但现在,你看无论中国的经济体量,还是字节、腾讯这些大厂的利润,放在全球都不低。我们创新缺的肯定不是资本,而是缺乏信心以及不知道怎么组织高密度的人才实现有效的创新。 「暗涌」:但做大模型,单纯的技术领先也很难形成绝对优势,你们赌的那个更大的东西是什么? 梁文锋:我们看到的是中国AI不可能永远处在跟随的位置。我们经常说中国AI和美国有一两年差距,但真实的gap是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。英伟达的领先,不只是一个公司的努力,而是整个西方技术社区和产业共同努力的结果。他们能看到下一代的技术趋势,手里有路线图。中国AI的发展,同样需要这样的生态。很多国产芯片发展不起来,也是因为缺乏配套的技术社区,只有第二手消息,所以中国必然需要有人站到技术的前沿。 「暗涌」:很多大模型公司都执着地去海外挖人,很多人觉得这个领域前50名的顶尖人才可能都不在中国的公司,你们的人都来自哪里? 梁文锋:V2模型没有海外回来的人,都是本土的。前50名顶尖人才可能不在中国,但也许我们能自己打造这样的人。 「暗涌」:所以你对这件事也是乐观的? 梁文锋:我是八十年代在广东一个五线城市长大的。我的父亲是小学老师,九十年代,广东赚钱机会很多,当时有不少家长到我家里来,基本就是家长觉得读书没用。但现在回去看,观念都变了。因为钱不好赚了,连开出租车的机会可能都没了。一代人的时间就变了。以后硬核创新会越来越多。现在可能还不容易被理解,是因为整个社会群体需要被事实教育。当这个社会让硬核创新的人功成名就,群体性想法就会改变。我们只是还需要一堆事实和一个过程。 ⋯⋯ 是不是很牛逼?反正我是被圈粉了,做最难的事情,还要站着把钱赚了,一切信念都基于对真正价值的尊重和判断,这样的80后、90后越来越多的站上了主流舞台,让人非常宽慰,你可以说他们在过去是所谓的「小镇做题家」,但做题怎么了,参与世界未来的塑造,就是最有挑战性的题,喜欢解这样的题,才有乐趣啊。

00
RLVR
6年前
失踪人口回归
h5.okjike.com
10