即刻App年轻人的同好社区
下载
App内打开
陶程
357关注5k被关注10夸夸
勿以善小而不为
陶程
5天前
之前在 X 上,Stripe 的产品负责人 Weinstein 问哪些成熟的软件公司完成了向 AI 的转型?
他说 Notion 似乎算一家。

几天前,Notion 的创始人 Ivan Zhao 接受 LinkedIn 联合创始人 Hoffman 的访谈。
Notion 现在是一家拥有超过 700个AI Agent 的公司,和大约 1100 个人类员工一起工作。
下面分享一些我的核心启发。

1、
如何看待员工和 Agent 的分工协作?

Ivan 认为,在一个大公司里,很多人都在做信息的传递、协调和对齐工作。
但是没有任何人类可以比AI在这一点上做得更好。
人类应该进入到更有战略性的“外层循环”的思维模式,而不是信息传递。

2、
Ivan 已经抛弃了传统的写作方式。
他会在早上泡茶的时候,打开 Notion,进入一个人的会议,对着手机发语音。
自己的会议记录是杂乱的,但是 AI 会把它梳理成一篇文档。
AI擅长总结、整理、编辑。
在这一点上比 Ivan 做得要好。

3、
主持人问,Notion 是少有的,从更传统的 SaaS 公司转变成真正的 AI Native、AI First 公司。
什么实现了这样的成功?

Ivan 认为现在下此结论还为时过早。
但他同意很少有软件公司能完成这个转型,Notion是其中做得比较好的。

有什么建议呢?

首先,作为领导者,你必须自己成为 AI 专家,亲身体验每一个新工具、每一个新发布的模型。
哪怕是周末和休息时间,Ivan 也会去用 AI 制作游戏。
他说,你必须亲身去感受。
也就是必须“把手弄脏”。

其次,组织变革要跟上语言模型的发展。

Notion 内部已经应用了3年 AI。
这三年里,重新架构了核心 AI Agent 层产品 5、6 次。
因为这个行业发展太快了,现在每隔几周就会有新的语言模型问世,会出现新的技巧。

而组织跟不上、僵化是它的本性。
如果你僵化了,就无法采用这些技巧和能力。
而如果其他人采用得更快,很快你就会被淘汰出局。
因此,你需要不断迭代、观察和改进。

4、对那些正在艰难转型 AI 的创始人有什么建议吗?

Ivan 认为,不要考虑成本。
人们总会计算 ROI。
但是当你计算完 ROI 的时候,它已经太晚了。

Ivan 会鼓励 Notion 的工程师尽可能多的消耗 token,不用节约成本,而更多是一种拥抱 AI 的自豪感。
我们要坦然接受自己对此一无所知。
因为哪怕是那些创造模型的人,他们也不知道答案。

所以,要将心态从制定完美计划转变为只是试试看,去调高自己拥抱 AI 的紧迫性和主动性。

5、AI 时代,对人和公司来说,什么更重要?

Ivan 认为,人有三个桶。
第一个是能力。
第二个是你的判断力、品味和价值观。
你关心什么,你想为世界带来什么,你的审美。
第三个是你的主观能动性、驱动力和意志。

从某种意义上来说,语言模型真正实现了知识获取和能力获取的民主化。
就像编程三年前还是很稀缺的能力,但是现在已经变得触手可及了(比如 Claude Code)。

对一个科技公司来说,现在的瓶颈,已经不再是你能否构建它,而是你应该构建什么。
这背后是判断力、是品味;
是你能否穿越重重困难,将其推向世界。

6、能动性就像肌肉,可以增长,也可能萎缩。

Ivan 举了个例子。
自己在婚姻中以前能做到的事情,但因为自己妻子做得更频繁,就不再做了。
自己对这些事的能动性就变弱了,本能的依靠妻子来做。

印刷术之前,人类的记忆力很好,抄写员能记住大量的东西。
印刷术出现之后,记忆就被扼杀了。
但也带来了启蒙,带来了很多好东西。

也许现在和 ChatGPT 一起长大的孩子,不再依赖谷歌来搜索,而是通过 AI 大模型直接得到答案。
这个过程中,我们获得了效率和生产力。
但是也有一些东西正在失去。

我们需要保持清醒,既意识到自己获得了什么,也意识到自己失去了什么。

7、AI 时代,人应该选择独处还是和人在一起?

Ivan 认为,AI 时代,一个人就能经营一家 10 亿美金的创业公司是有道理的。
那为什么,还要有人呢?

物理的限制条件可能是法律实体。
比如某些公司必须有一个人类来签署文件。
CEO 或者 CFO 在企业发展糟糕的的时候,必须承担责任。
这是一个因素。

另一个有趣的因素是:你是否想要这样做?
如果只有你自己,会不会太孤独了?
假设有一天生产力变得富足,你是想一个人玩游戏玩个几十年?还是想跟其他人一起玩游戏?

Ivan 更喜欢和其他人一起解决问题的世界。
正是因为有一群喜欢共事的人,一起解决问题,一起战斗,经营 Notion 才变得更有趣。
随着语言模型不断提高生产力,Ivan 希望这一点不会被丢失。

8、AI一直在变,不变的是什么?

Ivan 认为,现在的模型能力相当不错,主要的约束在人类的适应问题。
不过,模型发展日新月异,那什么是不变的呢?

就像我们走出非洲,产生了语言,学会了使用火。
就像我们喜欢聊八卦,喜欢和其他人类共度时光。
这些人性的东西变化很慢。

哪怕语言模型有一天拥有了无限的生产力,我们还是会想做这些。
也许到那时候,我们只是来上班聊聊天,看着我们的AI工作。
仅此而已。

9、未来商业更像艺术创作。

品味和价值观其实没有正确答案。
就像你是喜欢意大利菜还是中餐,喜欢喝水还是喝茶,都没有对错。
当生产力无限进步,每个人都能创造很多东西时,你只需要将你的价值体系给到外部世界,就会有人决定是否喜欢、购买或者追随。

过去企业需要 18 个月、50 人才能找到PMF,现在可能只需要 4、5 个人 18 天的时间就能做到。
未来,每个人都可以拥有一家自己的小店,放一件类似艺术品的商品,让其他人用金钱来为你投票。

艺术本身没有标准答案。
但你必须参与其中,你的参与就体现了你的价值、你的审美。
14
陶程
6天前
印象中,应该是Albert第三次上《42章经》录播客了。他对“胜率”和“赔率”、张一鸣和段永平的理解很有意思,收获很多:

1、Albert坦言自己创业第一个阶段还是看赔率大于看胜率,思考商业和产品问题的时候,更多是假设这件事发生了,能创造多大的价值,能具备多强的壁垒。但实际上,创业不应该只盯着“如果成功能赚多少”的宏大叙事(赔率),而应关注“如何让这件事确定能成”(胜率)。一流的企业家本质上都是极度的胜率驱动者,而非赌徒,张一鸣和黄峥都是典型看胜率的人。

Albert曾经专门请教过老王(王慧文),本来你们做校内饭否,为什么后来会做美团这个完全不一样的生意?老王告诉他,在当时的时间节点,所有做团购的人里面,懂线下的人没他们懂线上,懂线下的人都没他们懂线下,他们在做校内的时候,手底下就管200人的地推团队。

2、23年前后,Albert意识到AI这一波潜在的大机会,思考有没有以内容为核心载体的连接平台的可能性。做了一些demo后,觉得自己做出来的东西太烂了,回答不了用户为什么不去玩抖音和王者荣耀。他意识到,在内容赛道,AI降低了门槛,但用户的时间是稀缺的。AI生成的80分内容在用户眼里依然是无效的“垃圾”,因为大众只消费头部的1%。平庸的供给在AI时代没有市场空间。

3、25年底,Claude Opus让他意识到智能的发展已经完全超出预期了。Coding本身就代表着提高智能上限的手段。基于Coding这件事,在用户群和场景的选择上有非常多可以去挖的地方。就像Cursor一开始做给程序员,Lovable做给设计师。AI Coding的本质不是让程序员写代码,而是将开发权下放给设计师、产品经理等非技术人群。创业者的任务是为这些特定人群找到合适的“容器”或交互界面,释放模型能力。

4、24年6月,Albert找到PMF,一路增长,一直比较顺利。25年想要把组织逻辑往AI方向转变,但推进并不顺利。因为老项目整体的架构和代码量已经很大了,历史包袱很大,只能让AI去做一些局部的修改。后来在做新项目的时候,就定要求,说这个项目必须要人工代码为0,然后完全交给AI写,看看会怎么样。并且在职能上也不允许工程师去参与需求的研发,发现其实也很顺利,没什么挑战。

5、明确产品定位:Save Time or Kill Time。 产品要么追求极极致的效率(智能工具,节约成本),要么追求极致的体验(泛娱乐,杀时间)。目前工具产品的确定性最高,而娱乐产品的爆发点仍需等待模型能力的进一步突破。

6、关于AI产品套壳的这种说法,Albert认为完全是工程师视角。因为用户根本不知道你是壳还是不是壳,用户不关心底层技术细节,只关心问题是否被解决。对于创业者来说,核心是说你能不能够把这个模型能力拿出来用好,然后你不仅能用好,还能卖好。

7、行业发展早期存在极大的随机性(Beta红利),虽然快节奏的执行和跟风能带来阶段性数据增长,但如果把时间尺度拉长,潮水终将褪去。长期的赢家必须回归商业本质,在不确定性中寻找确定的用户价值。

8、曲凯说Albert最近一直在提一句话:“把一件事做到理论上应该有的样子”。Albert觉得更重要的是你要接受不完美。这个不是做正确的事,是正确的做事。

9、Albert认为张一鸣和段永平都是极度的极度的“胜率驱动”。 两人本质上都不是赌徒,而是稳健的胜率优化者。张一鸣其实很保守,14年的时候,市场上已经有那么多有视频产品。张一鸣说no,那个时候没有着急做视频,其实还是在优化胜率。直到所有东西都成熟了,到16年才开始正式下场做视频。

而他两的底层思维差异在于,字节整体偏强者思维,追求极致的资源投入、极高的人才密度和人才溢出、带有“完美主义”倾向的工程实现。
张一鸣推崇的是“与一流人才做有挑战的事”。

而段永平这套经营哲学更偏弱者思维,更具普适性,认为“大家都是普通人”,只要建立起优秀的文化和激励机制,普通人也能在差异化赛道创造巨大价值。
他更强调“平常心”,拒绝被市占率或估值蒙蔽双眼,坚持“消费者导向”这一第一性原理,认为只要对用户有益,拥抱技术变革(如AI)就是自然而然的选择。

10、曲凯问Albert应聘你公司的人,到底是在优化胜率还是优化赔率?
Albert认为任何一个应聘者思考的角度都是在优化胜率。本质都是在优化自己的能力、优化视野,优化信息质量。能力溢出后的“赔率”(巨大回报)是时间放大的结果,而不是求来的。

关键在于你需要获得什么样的能力?想要和什么样的人一起工作?想要解决自己的什么问题?如果是这样的动机,不是这家公司,就是下家公司,总会遇到那个能让你有足够赔率的地方。

但是比优化赔率更难的是心态。段永平经常讲,中国人的文化里多了一些急功近利的东西。你要意识到选择一家公司就是在选择看什么样的风景,过程本身更重要。

优化胜率而非赔率,把一件事做到理论上该有的样子|对谈连续创业者 Albert

42章经

05
陶程
7天前
为什么说人类的学习速度永远赶不上AI?我们如何利用AI提升自己的学习速度?

昨天,想跟一个朋友讲清楚什么是Scaling Laws。就让Gemini3帮我做类比。

它先跟我说,Scaling Laws 就像是 AI 界的万有引力定律。它发现了一个惊人的事实:AI 的聪明程度不是靠运气,而是极其稳定地由三个可以计算的“投入”决定的:

这三个投入分别是:
- 算力 (Compute): 你给 AI 多少块显卡(GPU)跑计算。
- 数据 (Data): 你给 AI 看了多少本书、多少行代码、多少个网页。
- 参数量 (Parameters): 这个 AI “大脑”里的神经元连接点有多少。

只要你按比例增加这三样东西,AI 的能力就会像数学题一样,极其稳定地变强。
这个解释很常规。

但紧接着,Gemini 看我最近在学做菜,就给我做了一个极其接地气的“红烧肉类比”:如果你想做出一道全世界最顶级的红烧肉,你需要什么?

- 参数量 = 厨师大脑里关于做菜的“认知复杂度”: 也就是厨师脑子里掌握的火候、食材搭配、调味比例的关联节点。参数量越大,厨师能处理的做菜变量就越多,对这道菜的理解就越深。
- 数据 = 尝过和见过的顶级菜谱: 厨师吃过 1 万道顶级名菜和只吃过 10 道家常菜,味觉的审美水平肯定不一样。
- 算力 = 练习的时间与频次: 给你最好的食材和天赋,但你只练了 5 分钟,肯定做不出神作。

Scaling Laws 告诉我们:如果你把厨师的认知复杂度提高 10 倍,让他多吸收 10 倍的顶级菜谱数据,再进行 10 倍的高频练习,这道红烧肉的美味程度会精准地提升,而不是随机变化。

当我朋友听到这个类比时,直拍大腿——这不就是我们人类形成一项顶尖能力的底层逻辑吗?

当我们想要掌握一项新能力时,首先会去看大量的好东西(最佳实践),在脑海里建立关于“什么是好”的高标准。
比如干导演的,要去拉片库布里克、黑泽明、费里尼;干商业分析的,要去读德鲁克、科特勒、吉姆柯林斯。
这对应着 Scaling Laws 中的“数据质量”。只看网络口水战,大脑就会习惯抬杠;吸收顶级研报和经典著作,就能建立起对逻辑和知识的“高审美”。

其次,作为一个实践者,我们需要对这项能力有极其精细的拆解,建立起复杂度极高的心智模型。你考虑的维度越全、颗粒度越细,你的“参数量”就越大,遇到复杂商业环境时成功复现的概率就越高。

最后,我们需要大量的重复实践,通过结果不断校准模型和标准。这就如同我们从小做题:做完题(前向预测),对答案发现错误,然后调整思路(反向误差传递),争取下次做对。这就是 AI 训练中的“前向预测”与“反向传播(梯度下降)”。

既然逻辑一样,人类到底输在了哪里?

说到这,很多人的第一感觉可能是:在学习这件事上,人类已经被 AI 彻底降维打击了。
但如果你拿着这个结论去问顶尖的 AI 科学家,他们可能会摇摇头。因为在目前的深度学习架构里,人类拥有一种让 AI 极其眼红的天赋——极致的“样本效率”。
人类的小孩只需要看两只猫,就能在动物园里认出老虎和狮子(少样本学习);而 AI 需要吞噬几百万张猫咪的图片,消耗庞大的算力“大力出奇迹”,才能勉强总结出猫的特征。在“顿悟”和“举一反三”这件事情上,人类的智慧依然碾压 AI。

既然如此,为什么我们还会觉得学不过 AI?
因为我们输在了肉身的物理极限,输在了“算力暴力”和“极高频的试错”上。
AI 没有情绪内耗,不需要睡觉,更不怕失败带来的挫败感。它可以 7x24 小时不知疲倦地吞吐千万级的数据,在虚拟空间里进行数以万计的预测与“梯度下降”。我们花几个月甚至几年才能跑完一次的商业项目和复盘,它在几秒钟内就能完成无数次完整的闭环迭代。

所以,不是 AI 的学习“悟性”比我们强,而是它用极度暴力的“刻意练习”密度,无情地碾压了我们引以为傲的经验积累。

这就引出了一个极其关键的破局点:既然拼算力我们毫无胜算,那作为从业者,我们该如何反向用好 AI 的算力暴力,让自己加速成为行业顶级专家呢?

三个方法,让 AI 成为你的“刻意练习加速器”。

1、用 AI 来帮你拆解“顶级审美”,过滤噪音。

你可以让 AI 告诉你什么是这个行业的顶级审美,也可以让自己长期浸泡在这样的高审美环境里。

当你看到一篇极具穿透力的商业战略分析,或者一个完播率极高的短视频脚本时,把它们发给 AI。不要让 AI 总结大意,而是问它:
- “拆解这篇内容的底层情绪钩子”
- “提取这个商业决策的逻辑框架”
- “总结这位作者在开头 30 秒抓取注意力的 3 个固定套路”
我们可以借用 AI 的算力,迅速提取该领域的“信噪比”最高的数据,过滤掉无效的经验噪音,迅速建立对该领域“最高标准”的具象化认知。

2、用 AI 帮你校准心智模型的“精准度”。

行业前 20% 的人更多凭经验和直觉做事,前 0.1% 的人靠极其精准的“心智模型”做事。
AI 能帮你快速地完成模型校准。

比如,当你在做AI商业计划书策划、设计一场播客访谈、或者制定全域内容运营策略时,先写下你的初始框架。
然后,让 AI 扮演最苛刻的投资人、行业顶级专家或极其挑剔的受众。
输入指令:“这是我的商业决策模型/内容架构,请无情地找出其中最致命的 3 个逻辑漏洞、被我忽略的关键变量,并提供优化思路。”
AI 通过指出你的思维盲区,逼迫你不断微调大脑里的“参数”,把 70 分的经验直觉,逼到 95 分的严密逻辑。

3、用 AI 帮你提升现实世界的“迭代频次”。

大部分人成为专家的核心瓶颈在于:现实世界给的反馈太慢、试错成本太高。
花几天写一篇内容,发出去才知道数据好不好,花几个月做一个项目才知道成不成。
AI 能把这个反馈周期大幅缩短。

比如,你现在需要提升与高端人脉的破冰对话、复杂的商业谈判能力,可以直接开启 AI 的实时语音对话模式(比如 Gemini Live)。设定好对方的苛刻背景和刁钻问题,进行实战演练。
别人在现实中踩坑一次需要一周,你在 AI 这里短时间内已经试错、复盘了十几次。这种高频的“前向预测”与“反向误差传递”,是很多人难以企及的训练量。

总而言之,不要让 AI 替代你思考,而是要让它成为你的“刻意练习加速器”。
02
陶程
3月前
最近意识到,自由是需要巨大勇气和智慧来承载的。

通常来说,一个人要想实现自由,就要对几乎所有关系和事物解除执念。也就是说,任何事物和关系,可以体验,但是也随时可以放弃。所谓拿得起,放得下。

这是因为,人终将会死去。我们对于所有外在因素,比如身体、权力、财富、关系,只有体验权,而没有所有权。甚至我们只拥有此刻的体验权,因为我们都无法掌控自己何时死去。

但是,我观察到,周围大多数人通常都会被某种或者某几种执念所控制,比如渴望更大的权力,更大的财富,更多的爱。几乎到了一种不实现就难以接受、难以和解的状态。

于是,这些人在社会关系中,总是会把自己的执念,投射在周围的人的身上。他们会通过讨论、分享来评判他人。因为如果他们不这么做,就会证明他所追求的可能是无意义的。就像古代对不贞洁的女子,反应最大的是那些遵从三从四德、渴望立贞洁牌坊的女人,他们需要维护自身认同的标准,这是他们赖以活在世上的标尺。

而一个充分自由的人,不可避免会引来周围各种被执念控制的人的投射。因为这些人不一样,对任何事都云淡风轻,而大多数人是不能接受这种和自身的不一样,还能这么安全存在的。

这个时候,这些人就需要很大的勇气来接受各种来自四面八方的投射,并且有智慧和善意来消解它。

每当别人对自己有所评判的时候,不会刺痛自己,也不怎么会放在心上。而是会对对方有这样的执念而感到同情。
06
陶程
6月前
你在意的才会困扰你。
00
陶程
6月前
和一个创业者朋友聊到创业者的四个段位:

1、 带团队拿到结果,给团队分钱。
2、 持续带团队拿到结果,持续给团队分钱。
3、 过程中,让核心管理层越来越强,甚至独立出去创业也能成,但是他们还愿意跟你干。
4、 公司没有你了,上面的问题还都能解决。

第四个段位,国内除了段永平,还有谁做到了吗?
13
陶程
8月前
分享一篇今年对我影响最大的文章。
211