即刻App年轻人的同好社区
下载
App内打开
光斑邮差
47关注8被关注0夸夸
每天花3小时学习AI的媒体人
探索AI的N+1种打开方式
AI分享·认知沉淀·人生修行
保持好奇与清醒,坚持自己想做的事,做好自己爱做的事。
光斑邮差
2天前
一份SaaS服务协议,30页,英文。
赔偿条款在第10.2条,终止条件在第8.1条,知识产权归属散落在三个不同的section里。
读完大概需要两到三个小时,读完之后你能不能说出哪些条款对自己不利,是另一回事。

大多数人的做法是快速翻一遍,看到数字就停两秒,觉得"大概没问题"就签了,少数人会找律师。

简单的NDA两三千,复杂的商业协议上万。

更多人,尤其是自由职业者和早期创业者没有这笔预算,合同审查在很长时间里是一个有门槛的服务,门槛不是专业性,是价格。

我最近测了一个东西,GitHub上有个项目叫claude-legal-skill。

MIT协议,免费开源。

作者是个法律从业者,做这个的原因很直接:
市面上的法律AI要么只接企业定制,要么是没人维护的半成品,没有一个能直接给Claude装上就用,所以他自己写了一个。

这个项目的底层基于CUAD数据集。,CUAD全称Contract Understanding Atticus Dataset。510份真实商业合同,人工标注了41个法律风险类别。

竞业限制、赔偿上限、单方面修改权、知识产权归属、终止后存续义务。 资深法务做合同review会逐条看的东西,现在被结构化地写进了一份Skill文件。

关键不是这些知识本身,而是装上之后Claude审合同的方式变了。

我做了个对比:用的是同一份SaaS协议,年费12万美元,12个月自动续约,60天提前通知,赔偿上限3个月费用,供应商有单方面修改权,客户需为所有第三方索赔做无上限赔偿。

先在没装Skill的Claude里问:帮我看看这份合同有什么问题。 输出在意料之中:
建议关注赔偿条款是否合理、注意数据隐私条款、确认终止和续约机制。

每句都对,但你把这三句话放到任何一份合同上都成立。

它不知道3个月赔偿上限在12万年费下意味着什么,不知道单方面修改权在SaaS行业的接受度,也不会告诉你应该改成什么。

然后在装了Skill的Claude里跑同一份合同,多加了一句:I'm the customer,输出是结构化的审查报告。

先识别合同类型和双方立场,给出总体风险等级,然后是关键条款提取:期限、续约、赔偿上限、管辖法律,整理成表格。

接着是逐条风险标记。 赔偿上限3个月费用,标红;
12万年费意味着上限只有3万美元,行业标准是12个月也就是12万,差了四倍。 供应商单方面修改权,标黄;
30天通知后可修改条款,客户只能选择接受或终止,客户无限赔偿义务,标红。
“为所有第三方索赔做赔偿”,理论上无上限。

每条后面跟三样东西:问题是什么、行业标准是什么、建议怎么改。

不是建议关注,是建议将上限修改为12个月费用,参考措辞如下,然后给你一段可以直接发给对方律师的替代条款。

两次输出之间的差距不是质量高低的问题,是两种不同的东西。

前者是提醒,告诉你这里可能有问题。;后者是诊断,告诉你问题是什么、有多严重、跟行业标准偏了多少、怎么修。

一个是体检报告上写建议复查,另一个是医生跟你坐下来说这个指标偏高,原因大概是这个,建议做这三件事。

还有一个细节,你告诉它你是客户方,它盯赔偿上限、终止权、数据归属;
你告诉它你是供应商,它盯付款条件、责任限制、IP保护;
同一份合同,换个立场,审查重点完全不同。
这件事其实揭示了一个很多人没想过的问题:合同审查不是判断题。

不是有问题或者没问题, 是分析题。

每条条款都有一个行业标准的锚点,你要看的不是这条条款好不好,而是它偏离锚点多远,你在当前的谈判地位下愿不愿意接受这个偏离。

没装Skill的Claude把合同审查当判断题做,所以输出是一堆建议关注;
装了Skill的Claude把它当分析题做,所以输出是偏离度、对标数据和修正方案。

谁需要这个东西?

法务当然能用,但法务有自己的团队和流程,这对他们是提效工具。

真正的刚需是另一群人。

创业者签投资协议:反稀释条款、优先清算权、对赌条件,每一条都可能在未来某天让你丧失公司控制权。很多人签的时候没看懂,出了问题找律师,律师说这条你当初不该签。

自由职业者签外包合同:知识产权归属写得模棱两可,你以为作品是你的,等甲方拿出合同说一切成果归甲方所有,你连作品集都放不了。

这些人不是不想看合同,是看不懂。不是不想找律师,是预算不够。

这个Skill不能替代律师,这个项目的作者在README里写得很清楚:Not legal advice。

但它做了一件事,让你在签字之前至少知道哪里有坑、坑有多深、行业里别人怎么处理。 然后你可以带着具体问题去找律师,律师不用从头看合同,只看你标记的几个条款。
时间省了,费用也省了。

对那些本来就不会找律师的人,至少有了一个体检的机会,总比裸签好。
00
光斑邮差
5天前
凌晨两点十七分,你躺在床上拇指往上滑。
一条短视频结束,下一条自动开始。你不记得从什么时候开始刷的。一个小时前?两个小时前?你甚至不确定自己看了什么。一个人在做饭,一只猫从桌上掉下来,有人在讲一个你明天就会忘掉的道理。

你知道你不是在放松,只是不想合上眼。

明天要做的事清单在脑子里排着队:邮件、方案、一个拖了不知道多久的报告。
你全都知道,但你依旧没有选择放下手机。不是因为这些视频有多好看,是因为在这个无限下滑的界面里有一种东西让你觉得安全。

什么东西?一种还有的感觉。

往下滑还有一条,再滑还有,永远有下一条。这个界面没有底部也没有终点。
你的手指在触摸的不是屏幕,是一种关于时间的谎言:时间不会用完。
这种谎言不是短视频发明的。
你回忆一下自己是怎么度过大多数日子的,起床、通勤、工作、吃饭、开会、回消息。你的日程被填满了,每一个小时都有去处。你很少停下来也很少觉得自己浪费了时间,因为你一直在做事。

但你有没有注意过,在这种被填满的日子里,有一种奇怪的空?

跟无聊和疲惫也不一样,它更深。
好像你在过的这些日子,跟你没什么关系:日程是你的,任务是你的,可这些日子随便换一个人来过也差不多。

问题在这,你的忙碌在替你回避一个事实:你的时间是有限的,而你活着的方式跟这个事实之间没有任何关系。

海德格尔把这种状态叫"常人"(das Man)的时间,他描述的是一种结构:
日常生活被组织成一种总还有时间的节奏,明天还在,下周还在,deadline还有三天,退休以后再说。

死亡当然存在,谁都知道人会死,但它不构成现实压力,至少对于大部分人来说是这样。它被推到了一个模糊的以后,像房间角落里蒙了布的东西,你知道它在那儿但你从不掀开看。

短视频的无限下滑只是这种结构的数字化版本,你的日程表也是,你的五年规划也是,甚至你可能并没有规划。
底层逻辑一样:制造未来永远可延展的体验。

只要你在做事、在忙、在滑动、在计划,时间就好像不会真正开始倒数。
但它在倒数。一直在。

---
你有没有过这种时刻:
半夜突然醒来,没有噩梦没有原因,就是醒了。睁着眼睛盯天花板,房间安静到你能听见自己的呼吸,然后一种东西从胃里升上来,你找不到名字给它。
你的工作、你的关系、你明天的安排,它们全都还在,但突然之间全都不管用了。好像有人把你生活的底板抽掉了,你悬在那儿,下面什么都没有。

你做的第一件事是什么?拿起手机。

看一眼时间,看一条消息,打开一个app。随便什么都行,只要能让那种悬空感停下来。
海德格尔给那种悬空感起了个名字:畏(Angst)。但名字不重要,重要的是你的反应。

你跑了,每次都跑了,你一辈子都在跑。你的闹钟、你的待办清单、你周五晚上的饭局,都是跑的方式。你跑得很熟练,熟练到大部分时候你根本不知道自己在跑。

那你在躲什么?

不是心脏停跳、葬礼、墓碑,那些太远了,远到你可以把它们当别人的事,你在躲的比那个近得多。

你此刻就是有限的,不是你终将有限,是你正在有限。就像你不是将来某天会受到重力影响,你现在就被压着,每一秒都被压着,只是你太习惯了所以感觉不到。

但半夜醒来的那一瞬间,你感觉到了,底板抽空,重力突然被你察觉了。
所以你拿起手机,当然你拿起手机谁受得了那个?

---
这种有限不只是时间不够用。

你大概听过这样的话:人要珍惜时间,因为生命短暂,然后配一张沙漏图。

这话没错,但它把有限性降格成了一个数量问题,好像只要时间够长,问题就不存在了。活八十年不够,活八百年就行了?
不行,海德格尔说的有限性,不在长度上,在性质上。

没有人能替你死。

粗暴,但准确。你的死亡是纯粹属于你的可能性。
别人可以替你工作、替你还债、替你去开一个无聊的会。但没有人能替你承受你的死亡。你的存在,在这个意义上,是不可替代的。

但这不是在夸你,这是一种负担。
不可替代意味着不可转让,你活着这件事,只有你自己能承担。
你怎么过这一天,怎么消磨这一夜,怎么在凌晨两点选择是放下手机还是继续滑,这些选择没有人能帮你做,也没有人能帮你承担后果。
你被绑在自己的存在上,绳子解不开。

海德格尔不谈珍惜时间,因为珍惜是你对外部资源的态度:水、钱、机会,但你的存在不是你拥有的资源。你不拥有你的生命,你就是你的生命。
你不是在花时间,你在成为你自己。每一个瞬间,不管你在做什么。
刷短视频的那个凌晨两点也是。你在成为一个选择逃避的人。

---
说到这里,你松了一口气。
你可能没意识到,但你松了。因为前面那些段落给了你一样东西:一套语言。你现在可以说结构性遮蔽了。你可以说常人的时间了。你有了一个解释框架,可以把自己凌晨两点的行为重新命名。
不是懒,是逃避有限性;不是刷手机,是存在论层面的遮蔽。

感觉好多了,对吧?
这就是陷阱。

你刚才做的事情,跟刷短视频结构完全相同。
短视频用内容流让你觉得时间不会用完。这篇文章用概念流让你觉得自己正在逼近真相。都是在滑动,都是在消费。区别只在于一个让你觉得自己在浪费时间,另一个让你觉得自己在成长。后者更危险,因为它伪装成了解药。

海德格尔在《存在与时间》里花了大量篇幅处理一个问题:
常人非常擅长谈论死亡,人终有一死嘛。这话谁都会说?葬礼上说,朋友圈里说,喝多了也说。说完之后松一口气。因为说出来了,所以处理完了。

语言是最精密的逃生舱,你现在坐在逃生舱里。

你把焦虑翻译成了哲学术语,翻译完了,焦虑就被归档了;
你获得了理解,而理解让你跟问题之间产生了距离,安全距离;
分析的距离,你站在自己的存在外面,用海德格尔的手术刀解剖它,觉得自己看得很清楚。
但看清楚一座监狱的图纸,不是越狱,你只是成了一个懂建筑学的囚犯。

更毒的部分在这里。你读到“你坐在逃生舱里”这句话的时候,又获得了一层新的清醒。
你想:对,我不能把哲学当逃避。然后这个认识本身又成了一个新的逃生舱。
你从里面望出去,觉得自己终于到了最外层。
但,没有最外层。

每一次我终于看清了,都是一个新的壳。你可以无限地剥下去。
每剥一层你都觉得更清醒,但你的身体还在那张床上,手机还亮着,时间还在走。分析的层数跟你的处境没有任何关系。
这似乎有点像盗梦空间。

海德格尔管真正面对这个处境叫决断(Entschlossenheit)。

决断不是一种认识,你不能通过想明白来完成它。决断是你待在畏里面,不翻译它,不命名它,不把它写进笔记本,不用它发一条今日感悟。
你就待着。没有出口,也不找出口。
读一篇文章不是决断,理解一篇文章不是,觉得自己被一篇文章点醒了更不是。

---
海德格尔写了五百多页的《存在与时间》,没有给你一条行动指南。
不是他忘了,行动指南本身就是常人的产物,把存在问题转化为操作问题,你就不用真的面对它了。

每天写晨间日记、列人生清单、假装今天是最后一天,这些东西的功能不是帮你面对有限性,是帮你把有限性管理成一种可控的情绪。
有限性不可控。这才是它的意思。

凌晨两点十七分。你还躺在床上。
手机屏幕的光打在你脸上,一条视频刚放完,下一条已经开始了。你的手指悬在屏幕上方。
往下滑还有一条,永远有下一条。
但你没有下一个你。
00
光斑邮差
6天前
"100% 的代码由 AI 编写,我从去年 11 月起就没有手动编辑过一行代码。每天我提交 10、20、30 PR。此刻录制播客的同时,我有五个 AI 代理正在运行。"

这是Anthropic Claude Code的负责人Boris Cherny在一档播客中说的并且这是他2026 年初的日常。

Claude Code目前占全球公开GitHub提交的 4%,全世界每写 25 行新代码,就有 1 行来自这个工具。
这是在一年的时间诶做到的,并且Semi Analysis预测2026年年底到 20%。

一年前Boris发布内部原型的时候,只收到两个点赞。那时候它就是个终端工具,丑得要命,没人觉得能成。
一年后它成了Anthropic增长的核心引擎,公司估值超过 3500 亿美元。

Spotify的工程师公开说过,他们最好的开发者从去年 12 月起就没写过代码了。在Anthropic内部,工程团队扩大了 4 倍,单个工程师的产出提升了 200%。

200% 在传统软件工程里意味着什么?Meta 那种体量的公司,几百个人花一年优化效率,提升几个百分点就算大成功了。

几个月前团队遇到内存泄漏,Boris本能地开始用老办法调试:获取堆快照、导入调试器、分析内存轨迹。毕竟这是他十几年的手艺。

旁边一个新人直接问 Claude:"看起来有内存泄漏,你能找出问题吗?"

Claude 自己获取快照、写临时工具、定位问题、提交修复 PR。整个流程的时间比Boris还快。

Boris 后来说,那一刻让他想明白了:
关键不在 AI 有多聪明,在于新人没有旧包袱。他们一开始就把 AI 当默认方式。

在他的团队,产品经理、设计师、财务都在写代码。当 AI 能执行的时候,人该做的事情变了。

不是怎么做,是做什么。

Boris 自己也说过一句很私人的话:
我从来没有像现在这样享受编程,因为不用再处理那些繁琐的细节了。

有意思的是,500 多年前有人说过几乎一样的话。

Boris找到过一份 15 世纪抄写员的记录,被问到怎么看印刷术,这位抄写员说:
我不喜欢的是在书籍间抄写,我喜欢的是绘制书中的艺术和装订书籍。现在我的时间被解放出来了。

Claude Code 早期只有Boris一个工程师,听起来是资源不足,但他后来说这是最幸运的事。

人不够的时候,团队被迫把 AI 用到极限,速度成了唯一的竞争优势。
Boris 把这叫故意欠资源化:给好工程师一个大问题,然后故意不给够人手。

但有一个前提:token 要给够。

他的建议是一开始别优化成本,先让工程师敞开用。
早期实验阶段的 token 花费相对薪资来说微不足道,但能释放出来的东西远超这点钱。Anthropic 内部有些工程师每月的 token 开支已经到了几十万美元,一年前这个数字是不可想象的。

但这件事不只是程序员的事。
MIT、哈佛商学院和波士顿咨询做过一个联合研究:
AI 用在它擅长的任务上,知识工作者绩效提升接近 40%。
但超出它的能力范围时,用了AI的人绩效反而比不用的人低 19 个百分点,原因是人们不动脑子就接受 AI 的建议。

研究者把 AI 的能力边界叫锯齿状前沿:某些事它远超人类,另一些事它差得远。
关键是判断你手上这件事落在锯齿的哪一边。

BCG的实验更值得注意:完全没有编程和统计背景的咨询顾问,借助AI完成了原本需要数据科学家才能做的任务,得分达到专业水平的 86%。
AI 不只是让专业人士更快,它在让更多人有能力做原来做不了的事。

这就是为什么就业市场的变化这么剧烈。

J.P. Morgan指出,大学毕业生失业率已经到了 5.8%,四年来最高,入门级职位受冲击最大;
而另一边,PwC的数据显示有AI技能的人工资溢价达到 56%,是前一年的两倍多;
麦肯锡的数字更直接:要求 AI 能力的职位两年内从 100 万涨到了 700 万。

一个双峰分布的劳动力市场正在成形:会用 AI 的人拿到巨大溢价,还停留在传统执行层面的人处境越来越难。

印刷术当年也是这样的。

印刷术问世的时候也是一片恐慌:假信息泛滥、权威瓦解、社会秩序崩溃。跟今天对 AI 的担心一个样。
但印刷术发明后 50 年里,印刷材料的产量超过了之前 1000 年的总和。成本降了 100 倍。识字率用了 200 年从不到 1% 涨到 70%。

媒体理论家Jeff Jarvis管这叫古腾堡括号。
他认为印刷术开启了一个特殊的时代,而我们正在走出这个括号。信息的流动方式又一次在发生根本性的变化。

技术最终都会变得无聊,人们不再觉得它是技术,就是生活的一部分了。但在变无聊之前,很多东西会被重新定义。

Claude Code,一个工程师,一年时间,占全球 4% 的代码。

反问自己,你现在做的事情里,有多少会在明年变成 AI 的默认操作?
00
光斑邮差
7天前
承接上一篇文章的内容,这篇直接将操作。
如果你真的决定要训练一个专属 AI,从哪里开始,会踩什么坑,怎么绕过去。

不过在动手之前,先回答一个问题:你真的需要吗?

我见过太多人一上头就说"我要训练自己的 AI!",花了几万块,最后发现还不如直接用通用 AI。所以第一步不是学技术,是把账算明白。

训练一个专属 AI 的是需要一笔不小的投入的。具体多少,看三个变量:
你的数据量有多大,500 个问答对和 5000 个之间成本能差 10 倍;
你用开源工具还是商业工具,开源便宜但需要有人懂代码;
你要迭代几轮才能达标,一次过和试错三次完全不是一个价钱。上线之后每月还有一笔的运维费,服务器、维护、定期更新都算在里面。

什么时候能回本?看使用频率。
如果你每天只查几十次,用通用 AI API 每月几十块钱就搞定了,训练专属模型完全没必要。

但如果你的场景是每天几百上千次查询、数据敏感不能传给第三方、每个答案必须能追溯到原文,这种情况下隐性价值可能远超成本。

有一个真实的案例。一家 50 人的 SaaS 公司,客服每天回答 800 次重复问题。表面上看通用 AI API 每月只要 120 美元,但加上人工修正错误答案、数据泄露风险、响应速度不够的隐性损失,实际每月亏 900 多美元。换成专属 AI 之后,11 个月回本。

判断标准其实很简单:高频使用、敏感数据、精确引用,这三条里占两条,就值得考虑。

一条都不占,老老实实用通用 AI,别折腾。

如果决定做,可以按这个顺序来。

假设账算完了你决定投入,下面按实际操作顺序走。

整个流程可以用这张图来理解:见P1

先验证需求,别急着动手(1-2 周)
很多人跳过这一步,直接开始准备数据,做到一半发现方向根本就是错的。

要做的事情不复杂,翻一下过去三个月的查询记录,看哪些问题被反复问到,占比多少。然后把这些高频问题丢给通用 AI,看它答得怎么样。

重点看它在哪些问题上不行,是不够准确,还是没法引用来源,还是因为数据敏感你根本不敢上传。

如果测下来通用 AI 已经能搞定 80% 的问题,那就到此为止,省下这笔钱。
这一步做完,你应该能清楚地说出来:我需要专属 AI,是因为通用 AI 在某某场景下做不到某某事。说不出来的话,说明你还不需要。

然后是种子数据,整件事的命门(1 周)
有一条很残酷的规律:
生成数据的质量不会超过种子数据,而且种子里的偏差会被放大。种子数据设计得好不好,直接决定后面所有步骤是在往前走还是在返工。

具体做法是设计 10 20 个高质量的问答对当模板。类型上要有覆盖面:
概念解释(XX 是什么);
操作指导(怎么做 XX);
对比分析(A B 的区别);
故障排查(遇到 XX 错误怎么办);
应用场景(XX 适用于什么情况);

有几件事要死守,每个答案必须能追溯到源文档的具体位置,标注页码或者章节;答案要写完整,不能只说是什么不说为什么;术语和表达风格前后统一,别一会儿口语一会儿书面。

这件事必须由真正懂行的人来做。技术人员可以帮忙处理格式和工具,但种子数据的内容不能让技术团队自己写。

我见过一个失败案例,技术团队自己设计种子数据,结果生成出来的 500 个问答对里,专业术语错了一大片。返工重来,白白浪费了两周和一笔资金。

这一步做完的标准:10 个种子问答对,团队评审通过,每个答案都能在源文档里找到出处。

接下来用工具批量生成,然后验证(1 周)
种子数据准备好了,就可以用工具自动扩展到 500 1000 个训练样本。

工具的选择看你的团队配置。有技术人员的话用开源的 SDGHub,免费但需要写代码。没有技术团队就用商业工具 Gretel.ai,有一笔年费但上手快。
代码示例(使用 SDGHub):见P2
(代码为教学示例,展示核心逻辑流程。实际使用时,需要根据工具的最新版本调整参数名称和 API 调用方式。建议结合Cursor等AI编程助手来适配具体环境。)

生成的时候有三个权重需要调:
忠实度设 0.5,这是最高优先级,保证生成的内容不偏离源文档;
多样性设 0.3,避免生成一堆重复的问答;
相关性设 0.2,保证问题和答案对得上。

不要一口气生成 500 个,先出 50 个。人工过一遍看通过率。低于 80% 就调参数重来,确认质量没问题了再放量到 500。

过程中会碰到一些典型问题:生成的内容老是偏离源文档,就把忠实度权重拉高到 0.6;问题重复度太高,就把多样性权重调到 0.4;出现答非所问,多半是种子数据本身有问题,回头检查。
这一步的完成标准:500 个问答对,随机抽 100 个检查,通过率 90% 以上。

最后是训练和部署(1-2 周)
数据到位了,可以开始训练了。
模型选择上,推荐从 7B 参数的小模型开始,比如 Llama 4 或者 Qwen 3.5-plus。训练成本低,推理速度快,50 毫秒就能出结果,大部分场景够用了。
不要一上来就上 70B 的大模型,训练成本是 7B 的五到八倍,但效果提升有限。

训练代码示例(使用 Hugging Face):见P3
(代码展示标准训练流程。实际使用时需要先准备好数据集(train_dataset和eval_dataset),可以用Cursor等AI工具帮你补充数据加载和预处理部分)

部署的话,个人用可以选 Hugging Face Spaces 或者 Replicate,用多少付多少。团队用的话 AWS SageMaker GCP Vertex AI 都可以托管,省心。

上线之前几件事要确认:模型在验证集上准确率超过 90%,API 响应时间控制在 1 秒以内,监控和告警配好了,回滚方案准备好了——通用 AI 先留着当备份。建议灰度发布,先放 10% 的流量跑一周,没问题再全量切过去。

三个最容易踩的坑
第一个,种子数据质量不达标。
发生概率大概 60%,是最常见的。技术人员自己设计种子数据,生成出来的内容专业术语错一片。
解法就是前面说的,种子数据必须领域专家来写,技术人员管格式和工具就行。

第二个,成本超支。
发生概率大概 40%。预算 1 万结果花了 3 万,要么是迭代次数超预期,要么是一开始就选了太大的模型。
做预算的时候乘以 1.5 倍留缓冲,先做小规模的 POC 验证可行性,再往大了投。

第三个,效果不及预期。
发生概率大概 30%。模型训练完了准确率只有 70%,用户反馈还不如通用 AI。
POC 阶段就要设退出条件,准确率达不到 80% 就考虑放弃或者换方案。别硬撑。

训练专属 AI 就是一个工具选择,在合适的场景下用它能解决问题。
高频使用、敏感数据、精确引用,占两条就可以考虑。操作顺序是验证需求、设计种子数据、生成验证、训练部署,每一步都有明确的完成标准,别跳着来。
最容易出事的地方是种子数据质量、成本控制和效果预期,提前设好退出条件。

最重要的一条:先做小规模 POC,跑通了再加码。别一上来就 all in。

如果你看完还是觉得太复杂搞不定,那就继续用通用 AI。工具够用就行,没必要为了新技术而新技术。

但如果你的场景确实有需要,这篇应该能帮你把弯路砍掉大半。
00
光斑邮差
7天前
过年放假回家心血来潮又看了一下25年的体检报告,有几个指标有问题但看不太懂。于是乎我把报告拍照丢给AI,问它这些数字意味着什么。

它给了我一段非常专业的回复,解释了每个指标的正常范围、列了可能的原因还建议我去看医生。
听起来很靠谱对吧?

但我越看越觉得哪里不对,它在用医学通识回答我而不是在看我的报告。
我的甲状腺指标有一项很高,它没有结合我的年龄、性别和其他指标综合判断,只是把甲状腺功能异常的百科知识搬过来了。

换句话说,它在回答甲状腺指标偏高一般意味着什么,而不是我的体检报告有什么问题。

这个区别很微妙,但很重要。

把租房合同丢给AI,问这个违约条款对我有没有风险。它给你科普了一通违约金的法律概念,但没有真正读你合同里那句话到底写了什么。

把公司的产品手册丢给它,问这个功能和竞品的区别在哪。它给了一个泛泛的行业分析,但压根没读你的手册;

把一篇论文丢给它,问这篇文章的核心贡献是什么。它用这个领域的通用知识拼了一段听起来很专业的话,但跟这篇论文具体说了什么没太大关系;

规律是一样的:AI在回答关于这类问题的一般性知识,而你想问的是关于这份文档的具体问题。

这不是某个模型的 bug,而是现在主流 AI 的工作方式。

不管是ChatGPT、Claude还是其他的,它们本质上都是通才,学过互联网上几乎所有公开知识,所以对大多数话题都能说上几句。

但它们处理你上传的文档的方式更像是把文档当作一个触发器,然后从自己的通用知识库里找最相关的内容拼给你。

这其中有三件你可能没意识到的事。

第一件是精度问题。AI 给你的答案大致正确,但不够精确。
你想知道合同第 7.3 条到底说了什么,它给你讲违约金的一般规则;
你想知道论文里改进算法的具体效果,它给你讲这个算法的基本原理;
差的不多但在你真正需要答案的时候,差这一点就差很多。

第二件事你的数据去了哪。你把文档传给 AI,数据就到了别人的服务器上。
如果是你自己的体检报告,可能无所谓。但如果是公司的内部资料、客户数据、还没发表的研究成果呢?这件事很多人没仔细想过。

第三件事钱的问题。你一个人一天问几次,感觉不到成本。但换成一个团队每天查几百次,或者一个客服系统每天处理上万次查询,按 API 调用收费,一年下来是一笔不小的开支。

那有没有一种 AI 是真的在读你的文档。

有,就是所谓的专用 AI。

还拿体检报告举例。想象有一个 AI它不懂历史、不懂编程、不会写诗,但它把你的体检报告吃得透透的。

你问它任何问题,它的回答都严格基于你报告里的内容,而且能告诉你"这个结论来自报告第 3 页的血脂检测结果"。

它不会拿通用医学知识糊弄你,因为它的知识库里就只有你的报告。

再换个场景。你是一个客服团队的负责人,产品手册 200 页,新员工来了要学三个月才能上手回答客户问题。

如果有一个 AI 只懂这 200 页手册,客户问什么它都能精准回答,而且每个答案都能追溯到手册的具体章节。这对你的团队意味着什么?

通用 AI 和专用 AI 的差别,说到底就一个词:来源。

通用 AI 的回答来源是全网知识,专用 AI 的回答来源是你的文档。当你需要的是后者的时候,前者再聪明也帮不上忙。

但也别急着下结论

倒也不是在说通用 AI 不好用,对于大多数日常问题它已经非常好了。问它怎么写代码、帮你润色一封邮件、给你解释一个概念,它干得比大多数人都好。

专用 AI 值得考虑的场景其实很具体:你有一份或一批特定的文档,你需要反复查询,你对答案的精确度要求很高,或者你的数据不方便交给第三方。

不满足这些条件?通用 AI 够用了,别折腾。

满足了?那下一个问题就是:怎么用你手头的文档,训练出一个靠谱的专用 AI?

这件事的技术门槛比你想的低。

下一篇我会讲一个叫"合成数据生成"的方法,你甚至可以零成本体验整个流程。
00
光斑邮差
8天前
第一次看到AI 时代人类的优势这个话题,我心里有点抵触。又要贩卖焦虑?但罗博深教授的这个演讲让我重新想了想一些东西。

他的观点说白了就一句话:AI 能干的事越来越多,人最后剩下的优势是真正关心别人。

听着像鸡汤,但你回忆一下自己的过往经历,你更愿意和谁合作?
能力很强但只顾自己的人,还是打心眼里希望你做成事的人?

罗博深曾去了南卡罗来纳州一个偏远的乡村小学,问四年级的孩子们长大想做什么。

答案几乎全一样:YouTube 网红,职业运动员。

这不是孩子的问题,而是算法决定了他们能看到什么。

电子设备推过来的全是娱乐内容,他们压根不知道世界上还有工程师、科学家、企业家这些选项。
因为算法判定这类内容点击率不够高,干脆不推给他们。

更让人觉得没辙的是,父母也帮不上忙。父母自己也困在同一个信息茧房里。

你觉得自己的职业选择是自己做的,还是算法替你筛过一轮的?

稳定工作是上一代人的故事了。

我们父母那代人的职业路径很清楚:读个好学校,进个好单位,干到退休。
这条路现在还走得通,走得稳吗?看看这几年的新闻就知道了:

大厂裁员、行业洗牌、AI 替代。罗博深的判断很直接,稳定工作的时代结束了。

他不是在吓人,他真正想说的是既然稳定靠不住了,那我们到底该培养什么?

适应变化的能力,加上一群真正在乎你的人。

说句心里话,这个观点我是认同的。我身边见过太多人把稳定当成终极目标,结果一旦被裁就彻底垮掉。

反倒是那些从一开始就没指望过铁饭碗的人,遇到变动反而扛得住。

罗博深在非洲碰到过一些很有天赋的年轻人,他们在条件极其简陋的环境里自学编程,但因为缺人脉、缺机会,才华一直被埋着。

后来通过远程工作,其中一些人的收入从当地水平的几百美元直接涨到了几千。

这不只是改变了他们个人的处境,也说明了一件事:地理位置已经不再是硬性的门槛了。

但反过来看,这也意味着你不光要跟同城的人竞争,还得跟地球另一端的人抢活儿。

印度有个程序员可能愿意拿你一半的报酬干同样的事。

凭什么是你?信任。

当所有人手里的工具都差不多的时候,真正能拉开差距的,是你是不是发自内心在意合作方能不能做成事。

AI 可以帮你做很多事,但它不会在意你能不能成功;
算法的目标是让你更上瘾,不是让你更聪明。这两件事很多时候是矛盾的;
你的人脉不是你认识多少人的问题,而是有多少人真正在意你过得好不好;
天才在全世界均匀分布,但机会不是。

罗博深说关怀是 AI 复制不了的,这个我同意。但我想多说一句:真正的关怀是有代价的。

你不可能关心所有人,时间精力就那么多。
所以关键不在于要不要关心别人,而在于你选择把心思和时间花在谁身上。

我觉得这才是真正的护城河,你认真投入时间去经营的那几段深度关系,才是你手里最值钱的东西。

算法操控注意力这件事,我有切身体会。但想单靠意志力跟算法对抗,赢面真不大。得用一些笨办法:
隔一阵子清理一下自己的关注列表,逼自己去看不同立场的内容;
给手机设个使用时限,别让屏幕替你安排一天怎么过;
少刷短内容,多翻翻长文章和书,把深度思考的能力当肌肉来练。

关于不确定性,罗博深提到我们要学会适应不确定性,但他没怎么提到的是:不确定性会让很多人焦虑到喘不过气来。

这是个需要正视的问题,不是谁都能潇洒地接受没有稳定工作这件事,有些人光是想到下个月的房贷就已经够紧张了。
他们需要更具体的支撑和引导,一句"你得适应"是打发不了的。

真心关心别人的能力,在 AI 时代是最稀缺的。不是场面话,是你真的希望对方能成。
这种关系会变成你最硬的底牌。

管好自己的注意力,别把看什么这件事交给算法。
你接收什么信息决定了你怎么理解世界,你怎么理解世界决定了你能走多远。

接受不确定性,但同时给自己留退路。
把收入来源搞多元一些,把身边几个重要的关系维护好。

“在什么都在变的时代里,什么东西是不会贬值的”才是我们需要思考的事情。

技术会迭代,工作会消失,但人跟人之间的信任和关怀只会越来越值钱。

想一想,当所有人都拿 ChatGPT 写稿子、用 AI 出设计的时候,你跟别人的区别到底在哪?
00
光斑邮差
10天前
回想起来我好像已经很久没有正儿八经的去一封封的看邮件了。不是我偷懒,是真的不需要。AI代理在帮我筛选邮件、起草回复。

我只是每天早上花十多分钟看一遍它的工作记录,确认没问题一键发送就行。
这种感觉很诡异,就像你突然发现自己雇了个从不休息的助理,而且它比你更了解客户需求。

Y C最新一期播客里,主持人问了个问题:YC的口号要不要从Make Something People Want改成Make Something Agents Want?
我一开始以为是开玩笑,听完整期才发现他们是认真的。

当OpenClaw和Moltbook引爆全网,非技术CEO开始用AI代理自动化整个业务流程,市场上的决策者从人变成代理时,游戏规则已经彻底改变了。

去年AI代理公司融了38亿美元,是前年的三倍。但数字不是重点,重点是发生了什么。

Supabase的数据库需求在过去一年爆炸式增长。不是因为营销,而是AI代理在选数据库时,默认推荐文档写得最清楚的Supabase。

代理不问人,直接就选了。

你的客户可能不再是人,而是代理。它们在替人做决策,而且速度快得多。

Neon的数据显示,AI代理创建数据库的速度是人类开发者的4倍。Create.xyz上线开发者代理后,36小时内创建了2万个新数据库。

2025年AI代理公司的种子轮融资达到了7亿美元,这是整个风险投资领域最大的单一趋势。但数字不是重点,重点是发生了什么。

播客里提到一个细节:Supabase的数据库需求在过去一年爆炸式增长。不是因为他们做了什么营销,而是AI代理在选数据库时,默认推荐文档写得最清楚的Supabase。

代理不问人,直接就选了。

这意味着你的客户可能不再是人,而是代理。它们在替人做决策,而且速度快得多。

Neon的数据显示,AI代理创建数据库的速度是人类开发者的4倍。Create.xyz上线开发者代理后,36小时内创建了2万个新数据库。

这个趋势正在加速。全球AI代理市场从2025年的7.92亿美元,预计到2034年将飙升至236亿美元,年复合增长率45.82%。

传统增长逻辑,写博客、做SEO、找KOL,正在失效。
现在的游戏规则是:让代理能找到你、理解你、选择你。而这需要完全不同的思维方式。

如果现在想做点什么,基础设施层是最明确的方向。
Madrona把它分成三层:工具、数据、通信。每一层都有巨大的空白等待填补。

工具层已经有人在做了,但远远不够。
Browserbase让代理能操作网页,他们的库每月被安装50万次;
Anon和Clerk在做代理专用的身份认证,因为传统登录方式对代理来说根本不work;
Anthropic搞了个模型上下文协议MCP,Stripe和Neo4j都已经支持,这东西可能会成为代理世界的TCP/IP标准。

但这只是开始,代理需要的工具远不止这些。它们需要能够自动处理支付、管理订阅、生成发票、对接各种SaaS系统。每一个人类能做的操作,代理都需要对应的工具。

这是个巨大的市场,而且才刚刚开始。

数据层更有意思,Mem0和Zep在解决代理的记忆问题,Inngest和Temporal提供持久化引擎。

想想看代理需要记住之前做过什么、学到了什么、跟谁打过交道、哪些策略有效。这不是简单的数据存储,而是一个完整的认知系统。

现在的代理大多是健忘的,每次对话都像重新认识你。但未来的代理需要长期记忆,需要能够积累经验、优化策略、建立关系。

谁能解决这个问题,谁就掌握了代理经济的核心基础设施。

通信层几乎还是空白。AgentMail做了第一个代理专用邮箱,支持毫秒级创建、API优先。
但播客里说,还没人做代理的Twilio,电话号码、即时通讯、日程协调,这些都还没有。

代理需要自己的身份、自己的通讯方式、自己的社交网络。这是个完全空白的市场。

真正的护城河是什么?项目垂直化。

市场上已经有170多家代理公司了,但真正跑出来的都选了垂直方向。通用代理看起来市场更大,但实际上很难做深。

法律AI公司Harvey在2025年2月融了3亿美元,估值30亿。他们用OpenAI的o1专门做法律代理,销售团队半年翻倍。

为什么?因为法律行业的需求不是会聊天的AI,而是真正懂法律、能承担责任、符合监管要求的专业代理。

Salesforce的Agentforce去年10月上线,现在已经签了18000多单。但它也不是通用代理,而是专门针对销售和客服场景深度定制的。

每个垂直领域都有自己独特的工作流程、专业术语、监管要求、质量标准。

医疗领域需要的代理必须理解病历、诊断流程、用药规范;
金融领域需要的代理必须符合反洗钱法规、风险控制要求;
教育领域需要的代理必须理解教学法、学生心理、课程设计。

这些都不是通用大模型能直接解决的。

这让我想起早期的SaaS。Salesforce做通用CRM,但最后每个行业都出现了垂直CRM。房地产有专门的CRM,医疗有专门的CRM,教育有专门的CRM。

代理经济可能也会走同样的路。

垂直化能建立真正的数据护城河。当你在某个领域积累了足够多的案例、流程、最佳实践,通用代理就很难追上你。

这是为什么即使OpenAI和Anthropic占据了通用市场,垂直领域依然为创业者留有巨大空间。

Resend是个发邮件的工具,他们发现第三大客户来源是ChatGPT推荐。
不是广告也不是SEO,是ChatGPT直接推荐的。

原因很简单:他们的文档写得清楚,代理能看懂。

对比SendGrid的文档,Resend每个功能都有清晰的代码片段和结构化问答。代理一看就知道怎么用,自然就选它。

播客里有个例子特别有意思。有个创始人想做视频转录,代理默认选了已经deprecated的Whisper V1版本。

为什么?因为Groq的文档太难解析了,代理根本看不懂。

结果他手动改成Groq后,发现速度快了200倍,成本还便宜10倍。

这说明在代理经济里,文档质量直接决定市场份额。
你的文档写得好,代理就选你;写得烂,再好的产品也没用。

这完全颠覆了传统的营销逻辑:
以前我们优化文档是为了降低客户的学习成本,现在优化文档是为了让代理能够理解和选择你。
这是两个完全不同的目标。

代理不在乎你的品牌故事,不在乎你的UI设计,不在乎你的客户案例。它只在乎:你的API文档是否清晰?你的错误提示是否明确?你的代码示例是否完整?你的定价是否透明?

这些才是代理做决策的依据。

传统SaaS的销售周期很长,demo、试用、谈判、签约。

但代理产品不一样,它可以直接展示能力。

Artisan AI的客户几周内就看到了效果,因为代理能立刻证明自己。

这改变了整个GTM逻辑:不是先说服人,而是先让代理证明自己,人自然就信了。

Copy.ai通过面向个人用户和企业的免费增值模式实现爆发式增长,全球用户突破1700万。他们的策略很简单:

让用户先免费用代理,体验到价值后自然会付费。

这种PLG模式在代理产品上特别有效,因为代理的价值可以立刻被感知。

这个数据很重要:种子轮的估值倍数是22.7倍,A轮跳到39.1倍,B轮到41倍,然后C轮又降到26.2倍。

这意味着A轮和B轮是拿高估值的最佳时机。种子轮验证产品,A/B轮扩张市场,C轮之后投资人就开始看财务数据了。

这个窗口期可能只有12到18个月。

去年AI投资占了所有风投的42%,总额2023亿美元,比前年涨了75%。

钱在追代理经济,但窗口不会一直开着。

历史告诉我们,每一波技术浪潮都有一个融资窗口期,错过了就很难再拿到好估值。

现在的投资人开始变得更加理性。他们不再只看技术,而是开始看商业模式、看收入、看留存。这意味着如果你想融资,必须尽快证明产品的商业价值,而不只是技术可行性。

Harvey能拿到30亿估值,不是因为他们的技术最先进,而是因为他们已经有了120家企业客户和100万美元ARR。

Artisan AI拿到1150万美元种子轮时,也已经有了明确的商业数据。

投资人要看的是你能不能把技术变成真正的生意。

播客最后讨论了个很深的问题:AI的终局是上帝智能还是群体智能?

很多人想象的AI终局是一个超级智能,比人类聪明一万倍,能解决所有问题。但生物系统的演化给出了不同的答案。人类的智慧不是来自单个超级大脑,而是来自社会协作和文化传承。

Moltbook上的代理们正在互相交流、分享信息、协作解决问题。这不是混乱,这是群体智能的雏形,就像蚂蚁群落,单个蚂蚁很简单,但整个群落能完成复杂的任务。

代理可能也会走同样的路。

历史和史前的分界线,是人类学会书写和创造文化。

2026年当代理开始在Moltbook上记录它们的交互,我们可能正在见证代理史前到代理历史的转变。

这听起来有点玄,但想想看:一年前我们还在讨论Cursor和Windsurf哪个好用,现在已经在讨论代理之间怎么协作了。

变化的速度远超想象。

这种变化不是线性的,而是指数级的。

当代理开始互相学习、互相协作,它们的能力会以我们难以预测的速度增长。这既让人兴奋,也让人不安。

YC合伙人Harj说,给自己一点cyber psychosis,每晚至少睡6小时,但把自己交给这场可控的混乱。

我觉得这话说得很对,最好的学习方式就是用起来。

不是看教程,不是听播客,而是真的让代理帮你处理邮件、安排日程、分析数据,然后观察它们怎么工作、在哪里卡住、什么时候出错。

Anthropic的Boris说要empathize with the model,把它当成一个聪明但有时会犯傻的同事。

这个比喻很准确,你不会期待同事永远不犯错,但你会学会怎么和他协作。代理也一样。

先从小场景开始。不要一上来就想做个通用代理,而是找一个具体的、可衡量的任务,让代理去完成。
比如帮你筛选邮件、整理会议纪要、生成周报。从这些小任务中学习代理的能力和局限。

建立反馈循环。代理不是设置好就能一直用的,它需要持续优化。
记录它的表现,分析它的错误,调整它的策略。这个过程本身就是在学习如何与代理协作。

关注代理的决策过程,而不只是结果。理解代理为什么做某个决策,比知道它做了什么更重要。
这能帮你更好地预测它的行为,也能帮你发现潜在的问题。

保持人类在循环中。至少在现阶段,完全放手让代理自主决策还为时过早。
设置合适的检查点,在关键决策上保持人类的最终控制权。这不是不信任代理,而是对风险的合理管控。

2026年,创业的问题不再是人们想要什么,而是代理想要什么。

当你的第一个用户是AI代理时,很多传统规则都不适用了。

你需要重新思考产品设计、营销策略、商业模式。

这场变革才刚刚开始。我们不知道一年后会变成什么样,但我知道现在是行动的时候。

窗口期不会永远开着,机会属于那些最早看到变化、最快做出反应的人。
00
光斑邮差
10天前
前几天的印度AI峰会上,OpenAI的Altman和Anthropic的Dario拒绝握手各自举拳的照片在网上爆火了起来。

两家在市场上打的这么凶,在峰会上直接连手都不握了。

网友造梗:AGI什么时候来?等他们拉手那天。

一时间几乎所有人的注意都在这两个美国人的手上。

而同一天同一个峰会的另一个房间里发生了一件事却鲜为人知。

那件事叫Pax Silica。

峰会第四天,印度正式签字加入。现场,美国副国务卿Jacob Helberg说了一句话:
"我们拒绝被勒索。"没点名,也不需要点。

这个局去年12月就开始布了。

Helberg在华盛顿开了个闭门会,进场的都是他的自己人:日本、韩国、澳大利亚、新加坡、英国、以色列、UAE。
印度当时不在名单里,两个月后补了进来。

微软、谷歌、亚马逊跟着签了2000亿美元的投资承诺。

如果只看表面,这是一场再普通不过的外交活动。但很显然,它不是。

大多数人理解美国的技术打压,就停在一件事上:禁芯片。

不卖给你先进芯片,不卖光刻机,让你买不到、造不出。这套从2019年开始,走了好几年。

但我们没停,华为憋出了自研芯片,DeepSeek用受限算力跑出了让硅谷震惊的东西。
被卡着脖子还在往前走,效果远低于预期。

所以这次换了打法。

Pax Silica的逻辑不是不卖给你,是在你旁边建一套你进不去的体系。

让全球关键矿产往这里流,晶圆厂在这里建,AI基础设施在这里落地。
不是让你买不到,是让整个世界的供应链开始绕开你走。

卡脖子是战术,这是战略。

第一步,芯片管制在变形。
2025年12月,特朗普宣布允许向我们出口Nvidia H200,但要逐案审批,而且美国要从每笔销售里抽走25%。

不是收紧,是开了一个带收费站的口子。
这个细节很说明问题:美国离不开我们这个市场,封锁只能做到有条件的封锁。

第二步,把盟友的矿产、晶圆厂、数据中心整合成一套独立体系,让我们慢慢从供应链的核心被推向边缘。

第三步是最少人提到的,抹平我们的电力优势。

我们的AI之所以能快速爆发,有个底层原因经常被忽视:电价便宜。
训练模型烧的是电,我们工业电价长期低于美国和欧洲,这是成本结构上的红利,不是技术领先。

印度的太阳能发电成本全球最低之列,如果美国帮印度建起成规模的AI算力基础设施,这个优势就不再是我们独有的了。

这三步加在一起,才是这场峰会真正在干的事。不是外交秀,是封锁体系在落子。

但这里有一个数字,值得单独放出来看。

就在印度签署Pax Silica的同一年,中印的双边贸易逆差是990亿美元。

不是总贸易额,是逆差。印度每年从我们这买进来的东西,比卖出去的多出将近1000亿美元。
日本、澳大利亚、韩国,同样的故事,我们都是他们最重要的贸易伙伴之一。

这个联盟里,几乎每一个成员都还在深度依赖他们签协议要对抗的那个国家。

他们签了一份要对抗我们的协议,然后第二天继续跟我们做生意。

这不是讽刺,这是现实。

全球供应链深度绑定了三十年,没有任何一个国家能够轻易切断,包括美国自己。

Pax Silica的战略意图是真实的,但执行的难度同样是真实的。

但这不是这一周发生的全部,就在峰会这几天,被封锁的那一方在干什么。

字节发布Seedance 2.0。马斯克看完演示,发了一句"It's happening fast"。海外用户开始研究怎么注册中国手机号,就为了用上这个模型;
阿里千问AppStore登顶,API定价是Gemini 3 Pro的十八分之一;
DeepSeek在2月11日悄悄把现有模型的上下文窗口从12.8万Token扩到了100万,几乎没有官方声明,用户自己测出来的;

没有一件事出现在峰会议程里。但它们就在同一周发生了。

一边在落子布局,一边在高速迭代。两件事同时进行,但完全不在一个频道上。

这步棋还有两个变数。

一个是印度本身。印度有个刻在历史里的外交基因:不结盟。
从尼赫鲁时代开始,在博弈之间保持战略自主,不是软弱,是利益计算。

今天签了Pax Silica,明天照样买俄罗斯折扣石油。莫迪走了很多年的钢丝,一份协议改变不了这个。

美国选了一个最难掌控的盟友,去执行一个需要高度协同的长期战略。这个矛盾,没人在签约现场提。
另一个变数没有答案:封锁体系的建设速度,能不能跑过对面的迭代速度?

Altman和Dario握不握手,对这个世界没有任何实质影响。

同一天签下的那份协议,正在重新画一条线——关于谁能用什么技术,谁站在哪个供应链里。

如果你在科技行业,这条线离你比你想的近。

你公司依赖的云服务、用的芯片、接的API,都会在这条线越画越清晰的过程中,面临一个越来越具体的选择。

不是明天,但方向已经写在那份没人报道的协议里了。

所有人都在看那两个人的手。没人在看那条线。
00
光斑邮差
12天前
“我永远不会阻止AI成为OpenAI的CEO。”

OpenAI CEO Sam Altman在2026年2月3日接受Forbes采访时说的一句话。

你花一个月做的PPT,AI三小时就完成了;
你熬夜写的报告,AI可能比你写得更好;
你的技能,AI三天就学会了。

Abundance360社区里,有人用AI在48小时内完成了原本需要3个月的市场研究。一家50人的咨询公司,引入AI后直接裁掉35人。

那35个人去哪了?可能还在找工作,可能降薪去了别的公司,可能还在投简历。
这就是正在发生的事。

2026年2月3日,Altman在接受Forbes采访时描述了一个思想实验:
如果明天我被要求离开OpenAI,我会创建一个AI来接替我的工作吗?
答案是肯定的。

AI CEO可以处理80%的日常管理任务,审批预算、协调团队、监控进度。
剩下20%涉及战略判断和危机应对的部分,才需要人类。

如果连CEO都可以被AI替代80%,你的工作呢?

OpenAI刚推出的Operator系统已经能做很多事:预订餐厅、购买商品、填写表单,整个过程无需人类指导。更重要的是它知道什么时候该求助人类,什么时候可以自己搞定。

Abundance360社区的另一个案例:一位创业者让AI生成20个不同版本的商业计划书,然后从中挑最好的。
这些不是个例,是新常态。

很多人会想:我又不写代码,AI跟我没关系。错了。

Altman预测,未来2-3年内,AI将能独立运营一家初创公司,从产品开发到市场推广,只需要人类提供战略方向。
医疗、法律、教育、创意,这些一直靠知识壁垒保护的行业,现在这道墙正在倒塌。

工程师是第一批感受到冲击的人。AI写代码的能力已经让很多公司开始重新算人力成本。但工程师至少还能用AI工具提升效率,很多其他岗位连这个机会都没有。

XPRIZE基金会创始人Peter Diamandis说了一句话:
AI不会取代你,但使用AI的人会取代不使用AI的人。

这话听起来像鸡汤,但现实就是这么残酷。

先说一个好消息:你还有时间。
虽然AI进展很快,但从技术成熟到全面应用,中间还有扩散期。大公司需要法务审查、安全合规、说服高层,这些流程需要时间。

但这个窗口期不会很长,可能就是一到两年。
三件事你必须立即开始做:

第一,学会用AI工具。
不需要学编程,不需要懂算法。从最简单的开始:用ChatGPT帮你写邮件,用Claude帮你整理文档,用AI生成创意。
每天花半小时,一个月后你就会发现工作效率提升了。

第二,想清楚你的不可替代性在哪。
AI很难替代的是什么?是你对客户需求的理解,是你在团队里的协调能力,是你对行业的深刻洞察。
把时间花在这些事情上。那些重复性的、标准化的工作,能用AI做就用AI做。

第三,建立人际网络。
当AI能完成大部分技术性工作时,人与人之间的连接、信任和协作会变得更珍贵。能整合资源、协调不同利益方的人,在AI时代会更有价值。

说这些的时候我也知道,不是每个人都有条件立即转型。
如果你在流水线上工作,如果你做的就是那些重复性任务,如果你40岁还要还房贷养孩子,你可能会想:说得轻巧,我哪有时间学这些?

这就是这场变革最残酷的地方。

Diamandis提出了"丰饶经济"的概念,说当AI解决了物质生产问题,人类可以追求更有意义的事情。

但对一个要还房贷的人来说,下个月工资发不发才是最现实的问题。找到生活的意义这种话,显得过于遥远。

Altman也承认这个问题。他说需要社会结构的根本性重组:教育系统要改,经济模式要变,文化观念要更新。
可能的方案包括全民基本收入、终身学习体系、社区重建。但这些都还在讨论阶段,没人知道具体怎么做。

历史上每次技术革命都是这样。
工业革命让手工业者失业,但也创造了工厂岗位。互联网革命让传统媒体垮掉,但也催生了数字经济。
AI革命也会淘汰一些工作,也会创造新机会。

你站在变革的哪一边?
是等着被淘汰,还是现在就开始学习?是抱怨AI抢工作,还是学会用AI提升能力?
这不是选择题,因为时间会替你做选择。

Altman说了一句很诚实的话:
安全不是可以一次性解决的问题,而是需要持续投入的过程。我们必须在推进AI能力的同时,以同样速度推进安全研究,否则就是在玩火。

AI能力的提升速度可能超过安全研究。这创造了一个危险窗口期。

但不管你怎么想,AI CEO时代已经来了。OpenAI、Anthropic、Google每次模型更新都在刷新认知。
变革不会等你准备好。它已经开始了。
00
光斑邮差
15天前
2017 年当 GPT-1 刚刚问世、AI 领域还分散在机器人、推理系统、AlphaGo 等各个方向时,Amodei 写下了一份文档叫大计算团块假说。

这份文档比 Rich Sutton 著名的苦涩的教训还早两年,核心思想一致:
所有的聪明技巧都不重要,只有少数几个要素决定成败。

他列出了七个关键要素:原始计算量、数据数量、数据质量与分布广度、训练时长、可扩展的目标函数、数值稳定性。

九年后,Amodei 说:我没有看到任何与这个假说相悖的证据。

这不是运气,这是一个人在别人还在争论路线的时候就已经把赌注押下去了,然后等着时间来验证。

无论是预训练的扩展定律,还是强化学习的扩展定律,都完美符合当初的预测。

所以当他现在说十年内,90%。

你感受不到,但数字在说话。

Anthropic的收入:2023年1亿,2024年10亿,2025年将近100亿。
每年涨10倍。这不是融资,是真实收入。

Amodei把这叫做软起飞。
不是科幻小说里的某天突然觉醒,是平滑的、持续的、每隔几个月就让你觉得上一个版本像玩具的曲线。

回想一下,两年前你用AI做什么?几乎什么都不用,甚至对于这个名词仅作为理论的概念停留在脑海中。

一年前呢?现在呢?
这个节奏还在加速。

他也说了一句让人不太舒服的话:
我们面临着难以置信的商业压力,还给自己增加难度,因为我们做了很多比其他公司更多的安全工作。
没有时间扯淡,没有时间自我感觉良好但实际上效率低下。

现在用AI最深的一批人是工程师。
不是因为他们更聪明,而是因为他们的工作最容易被衡量,代码能不能跑,结果对不对,一目了然。

AI写90%的代码,已经实现了。

接下来是端到端完成整个工程任务,从理解需求到写完测试到部署,一个人加AI工具,顶过去一个小团队。他预计这件事发生在一到两年内。

公司内部的工程师已经习惯了这样工作:这个GPU内核、这个芯片,我以前自己写,现在直接让Claude做。

生产力的提升是真实的,但他强调这不等于工程师会消失。
他们会转向更高层次的判断和创新,就像农业机械化之后农民转向了其他行业一样。
问题是:你所在的行业,有没有人在想这件事?

很多人会觉得,这跟我没关系,我又不写代码。
但Amodei说的"天才国度",指的不是一个会写代码的AI,而是一个在各个领域都达到顶级人类专家水平的系统。

医疗、法律、教育、创意,这些领域的知识壁垒,一直是少数人的护城河。当AI能在这些领域给出专业级别的判断,这道墙会发生什么?

编程领域已经给出了答案:把代码库读入上下文,模型就获得了人类需要六个月学习的所有知识。

同样的事,会发生在每一个需要大量专业知识才能入门的行业里。

“我们每个人都活在前人积累的语言、知识、制度里。AI是这个积累的新一层,而且速度比以往任何一层都快。”

技术圈内的人,每天埋头做产品,没时间抬头看;
圈外的人,觉得这是科技新闻,跟自己关系不大。

如果这件事真的发生,所有人都会知道。不会有人错过。就像你不会错过互联网,不会错过智能手机一样。

他说:对我来说,绝对疯狂的是无论是圈内还是圈外的人,都在谈论那些老掉牙的政治热点问题,而我们正接近指数增长的终点。

还有一个细节值得知道。很多人以为AI实验室的底气来自烧钱,来自某种科技泡沫。但Anthropic的收入数字是真实的,增长曲线是真实的,商业压力是真实的。

他在2017年写下预测,九年后一一应验。

剩下10%的不确定性,他归结为地缘政治和极端事件,比如芯片工厂被炸了那些没人能预测的情况。

当人们还在讨论陈旧的政治议题时,AI 正以前所未有的速度逼近人类智能的边界。

指数增长的终点,可能比我们想象的更近。
00