即刻App年轻人的同好社区
下载
App内打开
TheRumormongers8
129关注139被关注0夸夸
懂得种子有多么轻的人
会害怕赞美雷电
TheRumormongers8
3月前
TheRumormongers8
4月前
TheRumormongers8
4月前
TheRumormongers8
7月前
WTF
00
TheRumormongers8
8月前

曲凯: 1)25 年上半年市场很热,很像 23 年上半年的市场,但要注意的是 23 年市场热了半年以后,极冷了一年的时间,这波可能不会那么惨,但也很可能之后会接着一个低谷 2)过去两年里所有的产品本质上都是套壳的胜利,monica 是套 llm 的客,manus 何尝不是一种套推理模型的壳,当然套壳在我这里从来不是贬义,好的套壳就是把最新模型能力最大化利用的产品力 3)过去两年里真的赚到钱的最多的还是黄聊和修图,而融钱最多的是 llm 和 agent 概念,这两个分别对应着模型的成熟能力和模型的最新能力边界,模型能力成熟的时候产品最容易做大规模落地和商业化,而模型能力边界上最容易讲故事和融资,所以最好的变现选择可能是用一年前的模型技术,而最好的融资选择是讲半年后的模型边界能力 4)我们现在已经把两年前出来的公司叫“老公司”了,这就是 AI 和模型的变化速度,两年后今天的公司很可能也是老公司,Agent 很可能又会是个要被颠覆的老概念,这都很正常,当下拼的就是卷的能力和速度 5)今年上半年这波实际是 Deepseek 和 Manus 带起的浪潮(或者说 RL),到目前为止感觉逐渐进入尾声了,Agent 我感觉还有几个月的热度也就差不多了,后面市场会不会更冷就要看有没有新的东西接上,那按照上面所述,仍然看的是模型能力会在哪些方面有新的突破

00
TheRumormongers8
11月前

阑夕ོ: Kimi和DeepSeek的新模型这几天内同时发布,又是一波让人看不懂的突飞猛进,硅谷的反应也很有意思, 已经不再是惊讶「他们是怎么办到的」,而是变成了「他们是怎么能这么快的」,就快走完了质疑、理解、成为的三段论。 先说背景。大模型在运作上可用粗略分为训练和推理两大部分,在去年9月之前,训练的质量一直被视为重中之重,也就是通过所谓的算力堆叠,搭建万卡集群甚至十万卡集群来让大模型充分学习人类语料,去解决智能的进化。 为什么去年9月是个关键的转折点呢?因为OpenAI发布了GPT-o1,以思维链(Chain-of-Thought)的方式大幅提高了模型能力。 在那之前,行业里其实都在等GPT-5,以为一年以来传得沸沸扬扬的Q*就是GPT-5,对o1这条路线的准备严重不足,但这也不是说o1不能打,它的强大是在另一个层面,如果说训练能让AI变得更聪明,那么推理就会让AI变得更有用。 从o1到o3,OpenAI的方向都很明确,就是变着法儿奔向AGI,一招不行就换另一招,永远都有对策,大家平时对于OpenAI的调侃和批评很多,但那都是建立在高预期的前提下,真不要以为OpenAI没后劲了,事实上每次都还是它在推动最前沿的技术创新,踩出一条小径后别人才敢放心大胆的跟上去。 AI大厂们一直不太承认训练撞墙的问题,这涉及到扩展法则(Scaling Law)——只要有更多的数据和算力,大模型就能持续进步——有没有失效的问题,因为可被训练的全网数据早就被抓取殆尽了,没有新的知识增量,大模型的智能也就面临着无源之水的困局。 于是从训练到推理的重点转移,成了差不多半年以来最新的行业共识,推理采用的技术是强化学习(RL),让模型学会评估自己的预测并持续改进,这不是新东西,AlphaGo和GPT-4都是强化学习的受益者,但o1的思维链又把强化学习的效果往前推进了一大步,实现了用推理时间换推理质量的正比飞跃。 给AI越充分的思考时间,AI就能越缜密的输出答案,是不是有点像新的扩展法则?只不过这个扩展在于推理而非训练阶段。 理解了上述背景,才能理解Kimi和DeepSeek在做的事情有什么价值。 DeepSeek一直是「扮猪吃老虎」的角色,不但是价格战的发起者,600万美元训练出GPT-4o级模型的测试结果,更是让它一战成名,而Kimi正好相反,它的产品能力很强,有用户,甚至还为行业贡献了足够的融资八卦,但在科研方面,除了都知道杨植麟是个牛逼的人之外,其实还是不太被看到。 这次就不一样了,DeepSeek不再是一枝独秀,Kimi也把肌肉秀到了人家脸上,Kimi k1.5满血版在6项主流基准测试里和o1同台竞赛,拿到了3胜1平2负的结果,已经完全称得上是平起平坐了。 Kimi在GitHub上开源了k1.5的论文,分享了实现原理,最重要的一条是long2short,什么意思呢,就是让长思维链模型去当老师,教会短思维链模型同样的思考方式。 类o1的思维链模型什么都好,就是成本太高了,对于大多数普通人来说,「用得上但用不起」是最大的障碍,所以只有能够把AI用作生产力的专业人员,才能「回本」,甚至连OpenAI都没法通过高定价达成盈亏平衡,Sam Altman说200美金/月的ChatGPT Pro——可以毫无心理负担的使用o1——在账面上是亏损的,因为o1被调用的频次太高了⋯⋯ 如果说DeepSeek V3是在训练层戳破了必须要囤上几万张卡才能上牌桌的神话,那么Kimi 1.5就是在推理层推翻了思维链含着金汤匙出生就是要烧钱换质量的判断。 long2short也有点模型蒸馏的意思,本质上是利用极致的压缩能力实现「降本等效」的需要,k1.5分为long-CoT(长思维链)和short-CoT(短思维链)两个版本,但是很明显的,相比long-CoT对于长板的挑战,short-CoT对于短板的补足价值更有吸引力。 简单来说,就是和包括DeepSeek V3在内的竞争对手比起来,达到同样的水平,Kimi k1.5消耗的token量最少,如果把可消耗的token量提高到同一数值,Kimi k1.5的表现又回一骑绝尘,同质量最便宜,同价格最优质,就是这么不讲道理。 Kimi的论文里强调了长上下文的压缩是这套long2short方法的关键所在,这就有点让人感慨了,不知道你们还记不记得,Kimi当初的出圈,就是因为对长上下文的支持,刚发布时的20万字处理上限,刷新了行业纪录,后来长上下文也一直是Kimi的特色标签,但谁又能想到,对于长上下文的压缩优势,还能穿越山海,让Kimi在思维链的长短压缩场景里也能复用。 更早些时候,晚点对MiniMax创始人闫俊杰的采访里,闫也说了,公司采用全新架构的原因,就是意识到长上下文很重要,它是大模型发生通讯的核心能力。 只能说,过去的一切积累都会成为未来的慷慨馈赠。 和中美人民在小红书里重新相遇很像,两个国家在AI技术上的交流和互动其实也很密集,虽然政治上有芯片禁售等情况,但在从业者的圈子里,看不到太多的意识形态,腾讯的财报会议直接都说了,几乎全公司的程序员都在用Copilot写代码,而DeepSeek和Kimi把模型成本打下去的动作,也证明了在经济易用这条路上,国产公司是走得最远的。 这就勾画出了一个非常明确的趋势,美国的AI厂商负责前沿探索,烧最多的钱,出最好的货——你可以发现目前o3还是同行们不敢碰瓷的,都会默默绕开,哈哈——中国的AI厂商负责务实,在更贴近现实需求的领域里,提供最全面的优化,让AI变得好用。 这真的是未曾想过的配合。 朋友圈里有人转过一张群聊截图,我觉得很符合AI发展的方向,内容是宝玉发了一个react动画库的网址,下面的消息回复是:「谢谢推荐,我让Cursor学习下。」 哥飞对此感慨道:注意到区别了吗?如果是在以前,这个回复应该是「谢谢推荐,我学习下」。 时代就是这么悄然改变的。

00
TheRumormongers8
11月前

阑夕ོ: 几年摸索下来,AI行业一直在不断推翻曾经的预判,很有意思。 晚点对MiniMax创始人闫俊杰的那篇采访传得很广,主要的话题点在于闫抛了好几条非共识出来,比如模型能力和用户规模之间不存在飞轮,甚至如果用户太多,反而有可能分散公司的注意力,拖慢前言研发的效率。 我刷到潘乱对此的评论有些不以为然,说要警惕这种180度大转弯的所谓反思,动辄否认行业积累下来的经验总和。与其觉得全世界都在开倒车,不如好好看清楚是不是自个在逆行。 怎么说呢,我是觉得,「在自己生命的每个阶段都说了自己相信的东西」是每个人都不可避免的规律,不算特别难以理解,尤其是在一个格外年轻的行业,从业者都还是在满天的不确定性里找微弱的确定性。 再举一个例子,不知道你们有没有注意到,例如新榜等越来越多的AI产品榜单,开始把夸克、WPS或是百度文库这样的所谓「非AI原生应用」列进去了,这在半年以前还是不太见得到的事情。 也有越来越多的公司意识到,所谓的「AI原生应用」好像是个废话,就好比现在没有手机厂商会强调说新发布了一款触屏手机,出于对AI的敬畏和狂热,大家本来想等出一个iPhone时刻,等出一个漫威宇宙里的贾维斯出来,但在市场端,用户对于AI能力是否原生根本没有执念,他们只看有没有解决具体的问题。 豆包PC端越来越像一个浏览器,百度新上的AI搜也在做集成,基本上都是夸克半年前就开始走的设计思路,突然间行业里全反应过来了,对话式问答不是标准答案,没必要为了AI而AI,在用户熟悉的场景里先建立使用并依赖AI的范式,才是见效最快的。 夸克这款产品我之前提过很多次,现在虽然已经被捧成了「阿里之光」,但它押宝的路线图其实也被质疑过,在「AI取代搜索」和「AI改变搜索」之间,前者的想象空间和重新洗牌的刺激显然更大,而夸克赌的是后者,认为AI可以让搜索进化,能够「处理」而不是简单的「供给」信息,新能力和原入口可以一体化。 后来发生的剧情都知道了,连ChatGPT都新增了联网搜索的按钮,很多苦于获客压力的同行也纷纷「打不过就加入」,形势永远比人强。 七麦的2024年度统计,夸克累计下载3.7亿次,在AI产品里排在第一名,当然夸克也是做了大量的用户AI功能普及教育,但是如果没有千金散尽还复来的ROI,阿里又怎会为了夸克慷慨以赴。 教育用户很必要,但优先级更高的前提是,尊重用户的需求。

00
TheRumormongers8
1年前
纲领性文件的重要性是因为后续支撑它的系列的、可执行行动指南,如果没有这个逻辑关系,又何必浪费时间读呢?
00