即刻App年轻人的同好社区
下载
App内打开
张小珺
385关注15k被关注30夸夸
财经媒体人、播客主持人
张小珺
1天前
来自一家OpenAI早期股东的硅谷观察。

125. 与Altimeter合伙人Freda聊:下注OpenAI、Robinhood往事,美国资本坏小孩、算盘与泡沫

张小珺Jùn|商业访谈录

612
张小珺
3天前
在122集,朱啸虎称,三年内不会有泡沫,泡沫纯属无稽之谈。

雨森@yusen 今天带来了截然不同的判断。在他看来,2026年关键词是“Year of R”——回报(Return)与研究(Research)再次变得重要。2026年是一个现实与回调年。

这篇的最后一个问题:“你提出Year of R,也清空了二级市场股票——那你会做空吗?”

124. 年终对话【站在2025年之外】和戴雨森聊2026年预期、The Year of R、回调、我们如何下注

张小珺Jùn|商业访谈录

30
张小珺
10天前
第三次连载,追番啦!

122. 朱啸虎现实主义故事的第三次连载:人工智能的盛筵与泡泡

张小珺Jùn|商业访谈录

01
张小珺
21天前
谈Meta巨资挖人,怎么挽留人才:
“我觉得很多人,尤其最优质的人才,那些被挖的人,他真正care的不一定是钱,他真正care的是如果这个变革发生,他们希望在driver's seat。我觉得一个有使命感的人,他不会容忍说I'm on a wrong ship。我一定要在the right ship上。”(对话DeepMind谭捷)
mp.weixin.qq.com
33
张小珺
22天前
很前沿、hardcore的一集(关于robotics),嘉宾是Google DeepMind 机器人团队的技术负责人谭捷。可以从中了解:Google Robotics团队是怎么思考与工作的?我们也聊了聊这几年Google的研究文化变化🤖

一些takeaways:
1/机器人基座大模型最近几年的发展,主要依赖于多模态大模型,但多模态模型缺少robot action输出;
2/robotics最大问题是数据,它在一个非常复杂的unstructured environment里,可以发生任何事情;
3/bet on scalable data;
4/生成极大量仿真数据,是弥补它缺点的一个重要手段(用compute解决精度问题);
5/Gemini Robotics 1.5最重要的两点,一个是加入了thinking,另一个是跨具身迁移;
6/世界模型就是Vision-Language-Vision,vision和language in,生成下一帧的图像;
7/如果你有灵巧手,触觉就非常重要,之所以前面觉得触觉不重要,是受限于硬件,我们现在还处于夹爪时代;
8/一个有使命感的人,影响他跳槽不一定是钱,他不会容忍说“I’m on a wrong ship”。

121. 对DeepMind谭捷的访谈:机器人、跨本体、世界模型、Gemini Robotics 1.5和Google

张小珺Jùn|商业访谈录

13
张小珺
1月前
小鹏新上任的自动驾驶中心负责人刘先明的首次专访🤓

他提出了一个新颖的做法:“我们的做法简单直接,把VLA的Language拆掉就完了”;“模型是机器,燃料是数据,一旦掺入Language会让效率变得极低”;“我们把Language全都拆掉好了,输入V-L联合语料,直接输出Action”。

这是一个更激进的自动驾驶方案吗?大家怎么看语言在VLA里的价值和弊端?

120. 小鹏新上任的刘先明首次访谈:Language是毒药、拆掉L、简单即美、换帅、小鹏的AI转型

张小珺Jùn|商业访谈录

35
张小珺
1月前
关于下一代算法和架构改进的猜想,文字版本在这里:“最好的结合是,把混合注意力里面的全局注意力换成Sparse Attention。我觉得理论上只要Sparse Attention能选得准的话,它是完全可以取代Full Attention这个层的。但它现在问题可能是选不准。”

https://mp.weixin.qq.com/s/USj6wbOI8CD0MTQCQ01hXQ

11
张小珺
2月前
这篇很前沿,也很hardcore——关于算法和架构创新。
由于数据、算力、算法三驾马车,数据难度增大,中国算力相对有限,中国的算法走在了世界前沿。
近几年架构最大突破是DeepSeek的MoE,它让MoE成了全球共识;而下一个突破的重要方向可能是Attention。中国公司已经在Attention展开了不同技术bet。
本集我们从Kimi Linear、DeepSeek Sparse、Minimax M2、Qwen3-Next聊起,嘉宾分析点评了这些不同技术bet;也带领大家考古人工智能算法变种史,并预演未来算法与架构的改进方案(这里烧脑又精彩🤯)。
本集是我们的往期嘉宾松琳(Sonta)的返场。松琳在MIT的研究方向是线性注意力,参与了Kimi Linear和Qwen3-Next的工作,是Kimi Linear论文的作者之一。

119. Kimi Linear、Minimax M2?和杨松琳考古算法变种史,并预演未来架构改进方案

张小珺Jùn|商业访谈录

04
张小珺
2月前
一个月前,青池找到我,说他用了一年多的时间一篇一篇地啃完了200多篇AI论文,从开始全然不得要领,到后来逐渐入门——而他希望将他的论文探索之旅开源给大家。就这样,我们有了今天这集特别的节目。

他从200多篇论文中精选了36篇经典,4小时讲解,带你穿越AI变迁史。🤓🤓

(所有论文链接都在PPT中,shownotes末尾链接取用)

117. 开源一段论文探索之旅:模型范式、Infra和数据、语言、多模态的完整变迁史

张小珺Jùn|商业访谈录

315