即刻App
年轻人的同好社区
下载
App内打开
无情大猪蹄
425
关注
327
被关注
0
夸夸
青山见我如是
无情大猪蹄
11天前
天气好睡不着出来吹吹风,想买的烟没买到,最后两支倒是被吸完了。
2
0
0
无情大猪蹄
13天前
#今日份微醺
没醺到😂
1
0
0
无情大猪蹄
18天前
最近有一个小小的反思是,任何决策都不要带入好恶去选择,我的经验让我开始意识到每次这样做了通常都让自己和正确选择失之交臂。
当然,情感上的除外。
0
0
0
无情大猪蹄
21天前
脸皮厚我觉得是一个挺好的品质。
不只是代表能有勇气拿到好结果,也同时代表对坏结果有个好心态。
3
0
0
无情大猪蹄
29天前
阑夕ོ: DeepSeek火出圈的这十几天,其实也是噪音最多的一段时间,说实话大部分的讨论成品都有种加班硬赶KPI的味道,是人是鬼都在掰扯,有留存价值的屈指可数,倒是有两期播客让我听后受益匪浅,非常推荐。 一个是张小珺请来加州伯克利大学AI实验室博士潘家怡对DeepSeek论文的逐句讲解,接近3个小时的高密度输出,非常能杀脑细胞,但杀完之后分泌出来的内啡肽,也含量爆炸。 另一个是Ben Thompson关于DeepSeek的3集播客合集,加起来1个多小时,这哥们是News Letter的开创者,也是全球最懂技术的分析师之一,常年旅居台北,对中国/亚洲的近距离洞察比美国同行要高很多。 先说张小珺的那期,嘉宾潘家怡当时是在读完DeepSeek的论文之后,最快开发出了小规模复现R1-Zero模型的项目,在GitHub上已经接近1万Stars。 这种薪火相传式的知识接力,其实是技术领域理想主义的投射,就像月之暗面的研究员Flood Sung也说,Kimi的推理模型k1.5最初就是基于OpenAI放出来的两个视频得到了启发,更早一点,当Google发布「Attention Is All You Need」之后,OpenAI立刻就意识到了Transformer的未来,智慧的流动性才是一切进步的先决条件。 所以大家才对Anthropic创始人Dario Amodei那番「科学没有国界,但科学家有祖国」的封锁表态大为失望,他在否定竞争的同时,也在挑战基本常识。 继续回到播客内容上,我还是试着划些重点出来给你们看,推荐有时间的还是听完原版: - OpenAI o1在惊艳登场的同时做了非常深厚的隐藏工作,不希望被其他厂商破解原理,但从局势上有点像是在给行业提了一个谜语,赌的是在座各位没那么快解出来,DeepSeek-R1是第一个找出答案的,而且找答案的过程相当漂亮; - 开源能够比闭源提供更多的确定性,这对人力的增长和成果的产出都是很有帮助的,R1相当于把整个技术路线都明示了出来,所以它在激发科研投入上的的贡献要胜过藏招的o1; - 尽管AI产业的烧钱规模越来越大,但事实上就是我们已经有接近2年时间没有获得下一代模型了,主流模型还在对齐GPT-4,这在一个主张「日新月异」的市场里是很罕见的,即便不去追究Scaling Laws有没有撞墙,OpenAI o1本身也是一次新的技术线尝试,用语言模型的方式让AI学会思考; - o1在基准测试里重新实现了智力水平的线形提升,这很牛逼,发的技术报告里没有披露太多细节,但关键的地方都讲到了,比如强化学习的价值,预训练和监督微调相当于是给模型提供正确答案用来模仿,久而久之模型就学会依葫芦画瓢了,但强化学习是让模型自己去完成任务,你只告诉它结果是对还是不对,如果对就多这么干,如果不对就少这么干; - OpenAI发现强化学习可以让模型产生接近人类思考的效果,也就是CoT(思维链),它会在解题步骤出错时回到上一步尝试想些新办法,这些都不是人类研究员教出来的,而是模型自己为了完成任务被逼,哦不,是涌现出来的能力,后来当DeepSeek-R1也复现出了类似的「顿悟时刻」,o1的核心堡垒也就被实锤攻破了; - 推理模型本质上是一个经济计算的产物,如果强行堆砌算力,可能到了GPT-6仍然可以硬怼出类似o1的效果,但那就不是大力出奇迹了,而是奇迹出奇迹,可以但没必要,模型能力可以理解为训练算力x推理算力,前者已经太贵了,后者还很便宜,但乘数效应是差不多相等的,所以现在行业都开始扎走搞性价比更优的推理路线; - 上个月末o3-mini的发布和DeepSeek-R1可能关系不大,但o3-mini的定价降到了o1-mini的1/3,肯定是受到了很大的影响,OpenAI内部认为ChatGPT的商业模式是有护城河的,但卖API没有,可替代性太强了,国内最近也有关于ChatBot是不是一门好生意的争议,甚至DeepSeek很明显都没有太想明白怎么承接这波泼天流量,做消费级市场和做前沿研究可能是有天然冲突的; - 在技术专家看来,DeepSeek-R1-Zero要比R1更加漂亮,因为人工干预的成分更低,纯粹是模型自己摸索出了在推理几千步里寻找到最优解的流程,对先验知识的依赖没那么高,但因为没有做对齐处理,R1-Zero基本上没法交付给用户使用,比如它会各种语言夹杂着输出,所以实际上DeepSeek在大众市场得到认同的R1,还是用了蒸馏、微调甚至预先植入思维链这些旧手段; - 这里涉及到一个能力和表现并不同步的问题,能力最好的模型未必是表现最好的,反之亦然,R1表现出色很大程度上还是因为人工使劲的方向到位,在训练语料上R1没有独占的,大家的语料库里都会包含古典诗词那些,不存在R1懂得更多,真正的原因可能在于数据标注这块,据说DeepSeek找了北大中文系的学生来做标注,这会显著提高文采表达的奖励函数,一般行业里不会太喜欢用文科生,包括梁文锋自己有时也会做标注的说法不只是说明他的热情,而是标注工程早就到了需要专业做题家去辅导AI的地步,OpenAI也是付100-200美金的时薪去请博士生为o1做标注; - 数据、算力、算法是大模型行业的三个飞轮,这一波的主要突破来自算法,DeepSeek-R1发现了一个误区,就是传统算法里对于价值函数的重视可能是陷阱,价值函数倾向于对推理过程的每一步去做判断,由此事无巨细的把模型向正确的道路上引导,比如模型在解答1+1等于几的时候,当它产生1+1=3的幻觉了,就开始惩罚它,有点像电击疗法,不许它犯错; - 这种算法理论上没毛病,但也非常完美主义,不是每道题目都是1+1这样简单的,尤其是在长思维链里动辄推理几千个Token序列的情况下,要对每一步都进行监督,投入产出比会变得非常低,所以DeepSeek做出了一个违背祖训的决定,不再用价值函数去满足研究时的强迫症,只对答案进行打分,让模型自己去解决怎么用正确的步骤得到答案,即便它存在1+1=3的解题思路,也不去过度纠正,它反而会在推理过程里意识到不对劲,发现这么算下去得不出正确答案,然后做出自我纠正; - 算法是DeepSeek之于整个行业的最大创新,包括要怎么分辨模型是在模仿还是推理,我记得o1出来后有很多人声称通过提示词让通用模型也能输出思维链,但那些模型都没有推理能力,实际上就是模仿,它还是按照常规模式给出了答案,但是因为要满足用户要求,又回过头基于答案给出思路,这就是模仿,是先射箭后画靶的无意义动作,而DeepSeek在对抗模型破解奖励方面也做了很多努力,主要就是针对模型变得鸡贼的问题,它逐渐猜到怎么思考会得到奖励,却没有真的理解为什么要这么思考; - 这几年来行业里一直在期待模型诞生涌现行为,以前会觉得知识量足够多了,模型就能自然演化出智慧,但o1之后发现推理好像才是最关键的那块跳板,DeepSeek就在论文里强调了R1-Zero有哪些行为是自主涌现而非人为命令的,像是当它意识到生成更多的Token才能思考得更加完善、并最终提高自己的性能时,它就开始主动的把思维链越变越长,这在人类世界是本能——长考当然比快棋更有策略——但让模型自个得出这样的经验,非常让人惊喜; - DeepSeek-R1的训练成本可能在10万-100万美金之间,比起V3的600万美金更少,加上开源之后DeepSeek还演示了用R1去蒸馏其他模型的结果,以及蒸馏之后还能继续强化学习,可以说开源社区对于DeepSeek的拥戴不是没有理由的,它把通往AGI的门票从奢侈品变成了快消品,让更多的人可以进来尝试了; - Kimi k1.5是和DeepSeek-R1同时发布的,但因为没有开源,加上国际上积累不足,所以虽然也贡献了类似的算法创新,影响力却相当有限,再就是Kimi因为受到2C业务的影响,会比较突出用短思维链实现接近长思维链的方法,所以它会奖励k1.5用更短的推理,这个初衷虽然是迎合用户——不想让人在提问后等太久——但好像有些事与愿违的回报,DeepSeek-R1的很多出圈素材都是思维链里的亮点被用户发现并传播,对于头一次接触推理模型的人来说,他们似乎并不介意模型的冗长效率; - 数据标注是全行业都在藏的一个点,但这也只是一项过渡方案,像是R1-Zero那种自学习的路线图才是理想,目前来看OpenAI的护城河还是很深,上个月它的Web流量达到了有史以来的最高值,DeepSeek的火爆客观上会为全行业拉新,但Meta会比较难受,LLaMa 3实际没有架构层的创新,也完全没有预料到DeepSeek对开源市场的冲击,Meta的人才储备非常强大,但组织架构没有把这些资源转化成技术成果。 再说Ben Thompson的播客,他在很多地方交叉验证了潘家怡的判断,比如R1-Zero在RLHF里去掉了HF(人类反馈)的技术亮点,但更多的论述则是放在了地缘竞争和大厂往事,叙事的观赏性非常流畅: - 硅谷过度重视AI安全的动机之一在于可以借此把封闭行为合理化,早在GPT-2的协议里就以避免大语言模型被利用拿去生成「欺骗性、带偏见」的内容,但「欺骗性、带偏见」远未达到人类灭绝级别的风险,这本质上是文化战争的延续,而且基于一个「仓廪实而知礼节」的假设上,即美国的科技公司在技术上拥有绝对的优势,所以我们才有资格分心去讨论AI有没有种族歧视; - 就像OpenAI决定隐藏o1思维链时说得义正辞严——原始思维链可能存在没有对齐的现象,用户看到后可能会感觉到被冒犯,所以我们决定一刀切,就不给用户展示了——但DeepSeek-R1一举证伪了上面的迷之自信,是的,在AI行业,硅谷并没有那么稳固的领先地位,是的,暴露的思维链可以成为用户体验的一部分,让人看了之后更加信任模型的思考能力; - Reddit的前CEO认为把DeepSeek描述为斯普特尼克时刻——苏联先于美国发射第一颗人造卫星——是一个强行赋予的政治化解读,他更确定DeepSeek位于2004年的Google时刻,在那一年,Google在招股书里向全世界展示了分布式算法是如何把计算机网络连接在一起,并实现了价格和性能的最优解,这和当时所有的科技公司都不一样,它们只是购买越来越贵的主机,并甘愿身处成本曲线最昂贵的前端; - DeepSeek开源R1模型并透明的解释了它是怎么做到这一点的,这是一个巨大的善意,若是按照继续煽动地缘政治的路数,中国公司本来应该对自己的成果保密的,Google时刻也确实为Sun这样的专业服务器制造商划定了终点线,推动竞争移动到商品层; - OpenAI的研究员roon认为DeepSeek为了克服H800芯片所作出的降级优化——工程师用不了英伟达的CUDA,只能选择更低端的PTX——是错误的示范,因为这意味着他们浪费在这上面的时间无法弥补,而美国的工程师可以毫无顾虑的申请H100,削弱硬件无法带来真正的创新; - 如果2004年的Google听取了roon的建议,不去「浪费」宝贵的研究人员构建更经济性的数据中心,那么也许美国的互联网公司今天都在租用阿里巴巴的云服务器,在财富涌入的这二十年里,硅谷已经失去了优化基础设施的原动力,大厂小厂也都习惯了资本密集型的生产模式,乐于提交预算表格去换取投资,甚至把英伟达的芯片干成了抵押物,至于如何在有限的资源里尽可能多的交付价值,没人在乎; - AI公司当然会支持杰文斯悖论,也就是更便宜的计算创造更大量的使用,但过去几年里的实际行为却是出心口不一的,因为每家公司都在表现出研究大于成本的偏好,直到DeepSeek把杰文斯悖论真正带到了大家的眼皮底下; - 英伟达的公司变得更有价值,和英伟达的股价变得更有风险,这是可以同时存在时发展,如果DeepSeek能在高度受限的芯片上达到如此成就,那么想象一下,如果当他们获得全功率的算力资源后,技术进步会有多大,这对整个行业都是激励性的启示,但英伟达的股价建立在它是唯一供给方这个假设上,这可能会被证伪; - 中国和美国的科技公司在AI商品的价值判断上出现了显性分歧,中国这边认为差异化在于实现更优越的成本结构,这和它在其他产业的成果是一脉相承的,美国这边相信差异化来自产品本身以及基于这种差异化创造的更高利润率,但美国需要反思通过否定创新——比如限制中国公司取得AI研究所需的芯片——来赢得竞争的心态; - Claude在旧金山的口碑再怎么好,也很难改变它在销售API这种模式上的天然弱点,那就是太容易被替换掉了,而ChatGPT让OpenAI作为一家消费科技公司拥有更大的抗风险能力,不过从长远来看,DeepSeek会让卖AI的和用AI的都有受益,我们应该感谢这份丰厚的礼物。 嗯,差不多就是这些,张小珺的播客在小宇宙上可以搜到,Ben Thompson的播客是订阅制的,15美金/月,希望这篇作业可以帮你们更好的理解DeepSeek出圈之后对AI行业产生的真实意义。
0
0
0
无情大猪蹄
1月前
“愿你的碳基鼻腔永远能捕获雨后的诗意,哪怕宇宙终归于热寂。”
1
0
0
无情大猪蹄
1月前
阑夕ོ: 因为始终没有等到真正意义上的杀手级应用,AI很大程度上依然是一个新闻/资讯驱动型的行业,也就是隔三差五来一波「炸裂」,更新一下人类岗位被取代的进度百分比,然后大家继续该吃吃该喝喝,循环往复。 而普通人到底能用AI做什么,回答这个提问本身就是最大的PMF,大大小小的AI公司过去一年里都在寻找答案,但没有人敢自称已经找到了,别问,问就是未来可期。 在我看来,DeepSeek-R1的最大贡献,其实是把高阶AI给平权了,之前整个行业都在走生产力导向的路线,重视AI的提效价值,由此把高算力成本合理化,用「星际之门」这样的宏大工程叠加资本预期,成了唯一正确的方向。 所以Sam Altman说200美金/月的ChatGPT Pro在账面上是亏损的,OpenAI和微软合作了那么久,一旦新的数据中心需求被卡审计了,马上转头就和甲骨文勾兑上了,狼性归狼性,这条路确实是会越走越窄的。 AGI固然是个好东西,但它显然不应该建立在用起来肉疼这个前提上,无时不刻的向用户施以心理暗示,每次提问有没有创造足够的价值,如果没有,就不要浪费寸卡寸金的算力了,这就是生产力导向的叙事。 DeepSeek的最近3代模型,技术转进的阶梯感非常明显,V2是把AI的调用单价打下来,V3是在低价的同时跟上主流大模型,R1是加质不加价直接对齐最前沿的模型能力,保持不变的参数只有普惠这一条。 智能这种资源,也可以像水电煤一样取之即用,而水电煤的普及则会同时造福于工业生产和生活消费两端,对于AI行业来说,这是非常祛魅的设想,所以据我所知,大厂对于DeepSeek的这波出圈,感情上相当矛盾。 倒也不是不能理解,矛盾是因为短期损益和长期受益的混合。 短期损益在于堆卡这种变相发行入场券的游戏规则被打破了,本来可以靠财力储备去限制竞争对手的入局,现在行不通了,每个玩家都可以尽快站在巨人的肩膀上,看看GitHub上和DeepSeek有关的开源项目是怎么雨后春笋般出现的,就明白了。 长期受益在于加速AI的平权实际上有利于整个行业更快扩大消费级市场,而不是只能在降本增效的SaaS市场里作威作福,尤其是考虑到中国的SaaS产值本就疲软,让更多的用户可以一键获得最顶级的模型,为行业创造需求规模,堪称功德无量。 所以我不认同那种认为DeepSeek的成功是一种对抗性的胜利,这太强行了,而且如果你的崛起就会让别人遭殃,这样的狂热捧杀非常败坏路人缘,比如幻方其实是最早开始囤英伟达显卡的公司,要说英伟达因为DeepSeek崩了,梁文锋自己都得扣个问号。 优秀的公司涌现出来,一定会让全行业都变得更繁荣,包括也将推动竞争对手的进步,这和主观意志无关,是经济世界的客观规律。 而且如果你们真的看进去了梁文锋屈指可数的那几次对谈,就会发现他其实是一个纯粹远大于情绪的创业者,采访他的记者说幻方/DeepSeek带有强烈的文化吸引力,无论是组织还是做事,都遵循着有没有热情这个基本逻辑,包括找人也是,热情是藏不住的。 梁文锋自己打的比方,是买钢琴,一来要买得起——原始积累很重要——二来也得有一群急于在上面弹奏音乐的人,所以我很确信他不太会被噪音裹挟,事实上这次爆火,连加班都没怎么增加,发布的更新都是按照既定计划安排的。 不过国产AI行业也是实打实的连续两年没过好年了,不同的是,去年是惊惶焦虑,今年是志得意满,反转情节是真的爽。 很多人可能不太记得一年前是个什么形势了,我来帮你们唤醒一下长期记忆: 2024年2月,OpenAI在龙年大年初五发布了视频大模型Sora,和当时的视频大模型都是动态图片水平完全不同,演示里的运镜和动作无比流畅丝滑,再次上演了让全硅谷都看不懂的剧本。 那会儿的中国AI公司,处于一种集体懵逼的半植物人体征: 市面上能用到的最好产品是百度的文心一言——别笑,真就如此——李彦宏以胜利者的姿势劝大家放弃重复造轮子,字节跳动的CEO梁汝波在内部大会上起头反思公司为什么错过了GPT这场技术革命,朱啸虎锐评国产大模型公司没戏的「投降论」在朋友圈里刷屏,阿里因为FOMO的原因投了「AI六小龙」里的五家后被马云质疑「投这么多是不是看不懂」,腾讯则保持「超出三界外不在五行中」的查无此人状态,再往前一点,王慧文抱病撤出由他一手筹建的光年之外,不可置信的坊间传闻说是意识到追不上了所以才激流勇退⋯⋯ 这就是一年前的真实局面,当时没人能想到,翻盘能够来得如此之快,在短短一年时间里,从不够资格上桌吃饭,到霸榜全球应用商店,急风骤雨,摧枯拉朽。 我要说的是,DeepSeek不是一根孤单的独苗,比偶然更好更好的事情是必然,国产AI阵营这一年来的集体成长,兜住了很有可能是这一代人工业革命的在场权,能够正面迎战饱和式竞争: 有字节这样全量对标的,豆包、扣子、Trae成套开发,走的是用高投入换高回报的路线; 有通义这样正统开源的,通义家族的谱系之发达,已经在各大竞技场里刷了一年的分了; 有月暗这样精耕细作的,Kimi 1.5也是不逊色于o1的思维链模型,就是很不幸的和DeepSeek-R1撞车了哈哈哈; 有快手这样半路杀出的,可灵现在就是全球最强的视频大模型,没有之一,对Sora的幻灭要负全责; ⋯⋯ 甚至完全有理由相信,下一个现象级的国产大模型,可能都是上述没有提到的名字,科研固然没有意外,但市场充满随机性。 最后,建议大家勤用DeepSeek-R1,把它当成一个对话帮手,而不只是查询工具,思维链的展开,可以让你更好的理解如何控制需求(Prompt),并对过程中的偏差进行修正,这比只对结果方案提出「不够大气」的模糊反馈,要高效得多。 做好准备,迎接新的人机共生时代。
1
0
0
无情大猪蹄
2月前
携隐Melody: 提高沟通能力和人际交往能力,最关键的是什么? 我觉得最关键的是:分清楚对话的类型。 之前跟大家讲过,对话有三种类型:事务性、情绪性、身份性。搞错了类型,就是鸡同鸭讲。最常见的就是我要的是情绪支持,你却在给我讲解决办法(而且是最容易想到的那种,我自己早想过了的方法!)。 但凡你能分清是什么类型,你哪怕很不擅长回应,你就直接坦白说自己不擅长,但可以提供一双耳朵,对方也会觉得舒服的。 比如,知道对方要的是情绪性反应,你可以说:我不太擅长提供情绪反应耶,但我非常愿意认真听,提供一双耳朵可以吗?这样对方就会很感激了。而不是说:那你不要跟那个同事合作啊! 知道对方想要的是事务性呢,你可以说:这个问题真的很复杂,我也解决不来耶/我也判断不了你做的对不对耶。而不是说:你做的已经很棒了! 总结来说就是,最关键的任务是识别对话类型,然后,在这个类型的圈圈中,提供你的反应就好了。哪怕这个反应是很稚嫩的,很笨拙的,也没关系。你会发现即使你觉得自己很笨拙,对方也会觉得你善解人意。TA被理解了,被听见了。 这就是非常好的沟通了。 — 社会心理学,把强调任务导向、独立性、理性和竞争性的特质,比如果断、领导能力和技术技能等特质,归类为工具性(instrumental)特质。把强调人际关系、情感表达和关怀,包括同情心、温柔和善解人意等特质,归类为表达性特质(expressive)。 当一个人在帮人解决实际问题时,提供的就是工具性支持(instrumental support);当我们进行情绪性对话时,提供的就是发挥表达性特质才能做到的情绪支持(emotional support)。 要做到判断出对方想发起的是那种类型的对话,并且提供相应的支持,就需要人在这两种特质上,都发展得比较充分和成熟。 但由于性别刻板印象,很多男性被社会规训,只发展了工具性特质,丧失了表达性特质带来的表露温情、人际关系的维护、亲密关系的培养等能力;很多女性被社会规训,只发展了表达性特质,丧失了探索事业、追求解决更复杂、更有挑战、更宏大的问题的技能。 这样的男性常常被称为「钢铁直男」,因为他们普遍缺乏情商。这样的女性常常表现为「恋爱脑」,因为她们在解决复杂事务性挑战时,觉得只能通过依赖男人达成,由此会给她所依赖的男性不平衡的喜爱(本质上其实是对自己依赖的一种合理化)。 这两种人其实在任何类型的人际关系上,都会有些问题。前者根本不会维系人际关系,全靠另一方维护;后者过度依赖,无法创造独立的、健康的人际关系。 — 所以,要提供自己的沟通能力,人际交往能力,实际上,是要打破性别刻板印象,让自己变成一个「雌雄莫辨」的人。男性不以所谓的「女性特质」为耻,女性不以缺乏「男性特质」为傲。大家都拒绝做巨婴,做个独立的成年人。 那即使你是个「表达笨拙」的成年人,你也会拥有非常好的沟通能力和人际交往能力的。
0
0
0
无情大猪蹄
6月前
英特尔有个外号叫牙膏厂,而今市值却被一个真正的牙膏厂高露洁超越了。
十年前AMD的新闻还是市值雪崩入不敷出要靠卖大楼续命,这篇报道至今还在我的印象笔记里面收藏着,而今天AMD的市值是英特尔的三倍有余,四年前苹果发布M系列芯片我说英特尔正在面临着三家分晋的处境,而今四年后的今天苹果的发布会和产品起不了一点波澜,人们开始议论苹果是否开始经历着诺基亚时刻。
四年,说长也不长。只是这世界永远不会变的只有无时无刻的变化。
1
0
0
无情大猪蹄
8月前
瑞幸大闹天宫联名款的味道怎么形容呢?
加了苏打酒的刷锅水。
2
1
0