即刻App年轻人的同好社区
下载
App内打开
PakyuM
2k关注14k被关注25夸夸
互联网领域优秀贡献者
所有言论与供职机构无关
置顶
PakyuM
4月前
废物朋克 2024 年更新上线,希望给大家返程时光带来愉悦
这是废物朋克的第五年,下一个五年我们不见不散

Xinyang: 简中互联网没有王泽了,需要一个AI王泽伴侣

51
PakyuM
1天前
充值了会员,所以说几个问题
1. 付费专题节目购买之后可以直接一键添加到 playlist,但是,为什么是倒序?!真的是非人的操作。
(其次额外问题你们研究过你们用户的 playlist 平均长度吗,是不是应该做点啥,这个和上面问题无关

2. 安卓比 iOS 贵真的是闻所未闻,就算咱是上海公司人均 iPhone 保有量 99%+ 也不应该这样吧,简直到了匪夷所思的程度了
看了 Q&A 了,完全无法接受解释的说辞,解决方案这么多是不是自己研究的不够彻底?
好的用户体验体现在方方面面每个细节里

----------
有个不知道算不算问题,在 CarPlay 里用小宇宙的时候,音源经常和 Google Map 冲突,导致 CarPlay 短时间内无法调整音量,且并不是使用全部车内音响播放
而且偶尔还会出现播放被打断的情况
不知道是小宇宙的问题,还是 CarPlay 的问题(which means iOS 的问题),还是车的问题
但是网易云音乐,Spotify AM 没有遇到这个问题

----------
既然宣传语料都有换主题色……为什么没有紫色?这个不算问题
133
PakyuM
1天前
00
PakyuM
4天前
22
PakyuM
14天前
字节跳动连自己引以为傲的简体中文审核业务都溃败的这么严重吗?
看起来官僚主义真的是每个大公司都不可避免需要面对的系统性问题
以及官僚真的会让人/组织变得愚蠢

OrangeCLK: 打开豆包智能体页面看到这个

11
PakyuM
21天前
欧洲什么时候开始监管?

阑夕ོ: Kimi和DeepSeek的新模型这几天内同时发布,又是一波让人看不懂的突飞猛进,硅谷的反应也很有意思, 已经不再是惊讶「他们是怎么办到的」,而是变成了「他们是怎么能这么快的」,就快走完了质疑、理解、成为的三段论。 先说背景。大模型在运作上可用粗略分为训练和推理两大部分,在去年9月之前,训练的质量一直被视为重中之重,也就是通过所谓的算力堆叠,搭建万卡集群甚至十万卡集群来让大模型充分学习人类语料,去解决智能的进化。 为什么去年9月是个关键的转折点呢?因为OpenAI发布了GPT-o1,以思维链(Chain-of-Thought)的方式大幅提高了模型能力。 在那之前,行业里其实都在等GPT-5,以为一年以来传得沸沸扬扬的Q*就是GPT-5,对o1这条路线的准备严重不足,但这也不是说o1不能打,它的强大是在另一个层面,如果说训练能让AI变得更聪明,那么推理就会让AI变得更有用。 从o1到o3,OpenAI的方向都很明确,就是变着法儿奔向AGI,一招不行就换另一招,永远都有对策,大家平时对于OpenAI的调侃和批评很多,但那都是建立在高预期的前提下,真不要以为OpenAI没后劲了,事实上每次都还是它在推动最前沿的技术创新,踩出一条小径后别人才敢放心大胆的跟上去。 AI大厂们一直不太承认训练撞墙的问题,这涉及到扩展法则(Scaling Law)——只要有更多的数据和算力,大模型就能持续进步——有没有失效的问题,因为可被训练的全网数据早就被抓取殆尽了,没有新的知识增量,大模型的智能也就面临着无源之水的困局。 于是从训练到推理的重点转移,成了差不多半年以来最新的行业共识,推理采用的技术是强化学习(RL),让模型学会评估自己的预测并持续改进,这不是新东西,AlphaGo和GPT-4都是强化学习的受益者,但o1的思维链又把强化学习的效果往前推进了一大步,实现了用推理时间换推理质量的正比飞跃。 给AI越充分的思考时间,AI就能越缜密的输出答案,是不是有点像新的扩展法则?只不过这个扩展在于推理而非训练阶段。 理解了上述背景,才能理解Kimi和DeepSeek在做的事情有什么价值。 DeepSeek一直是「扮猪吃老虎」的角色,不但是价格战的发起者,600万美元训练出GPT-4o级模型的测试结果,更是让它一战成名,而Kimi正好相反,它的产品能力很强,有用户,甚至还为行业贡献了足够的融资八卦,但在科研方面,除了都知道杨植麟是个牛逼的人之外,其实还是不太被看到。 这次就不一样了,DeepSeek不再是一枝独秀,Kimi也把肌肉秀到了人家脸上,Kimi k1.5满血版在6项主流基准测试里和o1同台竞赛,拿到了3胜1平2负的结果,已经完全称得上是平起平坐了。 Kimi在GitHub上开源了k1.5的论文,分享了实现原理,最重要的一条是long2short,什么意思呢,就是让长思维链模型去当老师,教会短思维链模型同样的思考方式。 类o1的思维链模型什么都好,就是成本太高了,对于大多数普通人来说,「用得上但用不起」是最大的障碍,所以只有能够把AI用作生产力的专业人员,才能「回本」,甚至连OpenAI都没法通过高定价达成盈亏平衡,Sam Altman说200美金/月的ChatGPT Pro——可以毫无心理负担的使用o1——在账面上是亏损的,因为o1被调用的频次太高了⋯⋯ 如果说DeepSeek V3是在训练层戳破了必须要囤上几万张卡才能上牌桌的神话,那么Kimi 1.5就是在推理层推翻了思维链含着金汤匙出生就是要烧钱换质量的判断。 long2short也有点模型蒸馏的意思,本质上是利用极致的压缩能力实现「降本等效」的需要,k1.5分为long-CoT(长思维链)和short-CoT(短思维链)两个版本,但是很明显的,相比long-CoT对于长板的挑战,short-CoT对于短板的补足价值更有吸引力。 简单来说,就是和包括DeepSeek V3在内的竞争对手比起来,达到同样的水平,Kimi k1.5消耗的token量最少,如果把可消耗的token量提高到同一数值,Kimi k1.5的表现又回一骑绝尘,同质量最便宜,同价格最优质,就是这么不讲道理。 Kimi的论文里强调了长上下文的压缩是这套long2short方法的关键所在,这就有点让人感慨了,不知道你们还记不记得,Kimi当初的出圈,就是因为对长上下文的支持,刚发布时的20万字处理上限,刷新了行业纪录,后来长上下文也一直是Kimi的特色标签,但谁又能想到,对于长上下文的压缩优势,还能穿越山海,让Kimi在思维链的长短压缩场景里也能复用。 更早些时候,晚点对MiniMax创始人闫俊杰的采访里,闫也说了,公司采用全新架构的原因,就是意识到长上下文很重要,它是大模型发生通讯的核心能力。 只能说,过去的一切积累都会成为未来的慷慨馈赠。 和中美人民在小红书里重新相遇很像,两个国家在AI技术上的交流和互动其实也很密集,虽然政治上有芯片禁售等情况,但在从业者的圈子里,看不到太多的意识形态,腾讯的财报会议直接都说了,几乎全公司的程序员都在用Copilot写代码,而DeepSeek和Kimi把模型成本打下去的动作,也证明了在经济易用这条路上,国产公司是走得最远的。 这就勾画出了一个非常明确的趋势,美国的AI厂商负责前沿探索,烧最多的钱,出最好的货——你可以发现目前o3还是同行们不敢碰瓷的,都会默默绕开,哈哈——中国的AI厂商负责务实,在更贴近现实需求的领域里,提供最全面的优化,让AI变得好用。 这真的是未曾想过的配合。 朋友圈里有人转过一张群聊截图,我觉得很符合AI发展的方向,内容是宝玉发了一个react动画库的网址,下面的消息回复是:「谢谢推荐,我让Cursor学习下。」 哥飞对此感慨道:注意到区别了吗?如果是在以前,这个回复应该是「谢谢推荐,我学习下」。 时代就是这么悄然改变的。

02
PakyuM
24天前
PakyuM
24天前
斗转星移
中国新四大发明已经是
电动车,光伏,无人机和小红书了
为什么我眼里常含泪水

PakyuM: 为小红书担心,今年好不容易赚的利润不会又全花在买大模型和机器上吧 真不容易 赶紧找个懂的人带路吧

13
PakyuM
24天前