即刻App年轻人的同好社区
下载
App内打开
莫唯书Mark
1k关注4k被关注4夸夸
☯️万物皆虚 万事皆允
🎬抖音/TikTok/DeepMusic
🤖从ML开始做了10年AI
📖探索科技与人文的真谛
🔗公众号:莫思Moss
置顶
莫唯书Mark
4月前
我们似乎总陷入同一种错觉:为即将到来的一年设想天翻地覆的剧变,却对接下来十年间,那些细微改变累积而成的深远重塑视而不见。此刻,站在2026年的开端,我们恰恰身处这“高估”与“低估”的缝隙里。潮水并未如预言般汹涌淹至,但它润湿大地的深度,已远超我们的想象。

2026新年寄语:我们总是高估一年而低估十年

10
莫唯书Mark
1天前
你有没有想过一个问题:时间到底是什么?

不是钟表上的几点几分,是那种让你从孩子变成大人、让花开花谢、让宇宙从大爆炸走到今天的东西。它好像无处不在,但又谁也抓不住。

我以前觉得这个问题没什么好想的,时间就是时间,钟表在走,我在变老,这有什么可怀疑的?但后来读了一些物理和哲学的东西,我才发现那些真正聪明的人竟然为“时间是否存在”这件事吵了一百多年,而且最让我意外的是越来越多的证据正指向一个反直觉的结论:时间可能不是宇宙的基本属性,它只是我们人类感知世界的一种方式。

换句话说,时间也许并不真实存在。这听起来像疯话,但背后的逻辑比我想象的要严谨得多。

我们先从最日常的经验说起,古人说“逝者如斯夫,不舍昼夜”,时间像一条河流从过去流向未来。这种直觉太强了,以至于牛顿当年直接把时间定为宇宙的绝对背景,不管你人在哪里、在做什么,时间都在均匀地流逝。这就是经典物理学的世界,只要给科学家一个系统当前的状态,他就能用牛顿方程精确计算出它过去和未来的每一个状态。在这个世界里,时间是一个完美的坐标轴,过去和未来在数学上是对称的。

但这里出现了一个漏洞,如果时间完全对称,为什么我们只能记住过去,却无法记住未来?为什么我们的生命只能从低熵状态开始(比如一颗受精卵),然后不可逆地走向高熵(衰老和死亡),而不是反过来?

答案藏在热力学第二定律里,熵,通俗说就是混乱程度,在孤立系统中只会增加不会减少。你打碎一个鸡蛋,它不会自己复原,这种单向性给了时间一个箭头。宇宙一开始处于极低的熵,然后一路走高,我们就在这种熵增的斜坡上体验到了“流逝”。

但这就引出了更麻烦的问题,为什么宇宙一开始是低熵的?谁把它设置成这样的?没人知道。物理学家把这个叫作“过去的低熵条件”,它就像一个初始条件一样被塞进了宇宙的设定里,没有更根本的解释。

那如果我们抛开时间之箭,只问“时间本身是否存在”呢?爱因斯坦用相对论给出了第一记重拳,他告诉我们时间不是绝对的,它和空间是纠缠在一起的,而且会随着速度和引力而伸缩。你坐宇宙飞船高速旅行一圈回来,你会比留在地球上的双胞胎兄弟更年轻,这是已经被实验验证的物理事实。既然时间可以变慢、甚至理论上可以接近静止,那它还是不是一种客观的、均匀流淌的东西?爱因斯坦给出的答案是时间只是四维时空中的一个坐标,不同观察者有不同切分方式。在这个框架里,时间的基本存在没有被消灭,但它被降级了。

后来真正捅破窗户纸的是量子力学和量子引力理论,量子力学中有一个薛定谔方程,它描述量子态如何随时间演化,这个方程和牛顿方程一样假设时间是基本的外部参数。然而当物理学家试图把广义相对论和量子力学统一起来时,得到了一个叫惠勒-德维特的奇怪方程,这个方程里没有时间变量。它直接说宇宙的量子态是静态的,就像一张巨大的快照,包含了所有“时间”的信息,但没有一个时钟在滴答作响。

这就产生了一个令人震惊的可能性,时间不是宇宙的基本属性,它只是在某些条件下从无时间的底层现实中涌现出来的。就像温度不是单个分子的属性,而是大量分子运动的集体表现,所以时间也可能是某种更基础的无时间实体在特定视角下呈现出来的幻象。

有物理学家曾用“佩奇-伍特斯机制”来说明这一点,你可以把整个宇宙想象成一个不随时间变化的整体,然后你从中挑出一个小系统当作“时钟”,另一部分当作“剩下的宇宙”。当时钟和剩下宇宙的量子态纠缠在一起时,对于剩下宇宙来说时间就出现了。时钟的指针每动一下,剩下宇宙的状态也相应变化。这就好比你看一部电影,每一帧都是静态的胶片,但当你快速转动播放时就有了运动和时间感。

这个机制很妙,但它同样也面临挑战。你如何定义“时钟”?理论上你可以用无数种方式切分宇宙,得到无数种涌现出来的时间,那么哪一种才是真实的?这就像你有一幅画,你可以用无数种方式把它切成碎片,然后说“这就是画的结构”,但画本身并不能决定哪一种切法是正确的。

这就不得不把我们推到了一个哲学选择面前,一种观点认为时间是基本的,宇宙的量子态真的在不断演化。但如果时间和演化是永恒的,那么在无限长的时间尺度上,随机粒子完全有可能偶然组成一个能思考的大脑,根据概率这种随机冒出来的“游离大脑”的数量,应该远远超过通过正常进化产生的智慧生命。这意味着你没有任何理由相信自己不是一个刚刚在虚空中随机产生的短暂意识,听起来很荒谬不是吗?

所以还有另一种观点认为,时间不是基本的,它是涌现的。因为宇宙的底层是静态的,所谓的“时间演化”只是某种投影。但其代价是你需要解释为什么我们会有如此强烈的“时间在流逝”的感觉,而且如果时间只是某种投影,那么“过去”、“未来”、“因果”这些概念还有多真实?

物理学家和哲学家们争论了一百多年,可能最终的真相就是没有标准答案,因为问题本身就问错了。当我们问“时间是否存在”,就像鱼问“水是否存在”。鱼一辈子都泡在水里,它无法想象没有水的世界,所以它会觉得水就是宇宙的根本。而我们一辈子活在时间的河流中,我们的语言、思维、记忆、因果都是建立在时间之上的,我们无法构想一个没有时间的经验。当我们试图用物理学去拷问时间时,我们用的工具本身就预设了时间。

所以至少对我们来说时间的存在是真实的,尽管它可能源于某种更深层的无时间结构。就像桌子的存在是真实的,尽管它是由夸克和电子组成的。我们不需要因为时间是涌现的就说它是幻觉,应该说正因为它是涌现的才如此符合我们的日常经验。

说到底人类追问时间本质的过程就像一只试图跳出水面的鱼,我们跳起来看了一眼发现外面没有水,但我们落回去的时候水依然真实。时间在物理学的抽象方程里也许可以被消解,但在你我的生命中却永远不会消失,因为它已经深刻嵌入了我们整个存在的意义结构里。

至于说宇宙大爆炸之前有没有时间?宇宙热寂之后还有没有时间?也许这些问题就毫无意义,因为“之前”本身就是一个时间概念,不能用在时间之外,就像你问南极以南是什么地方一样。

物理学家们可以继续争论希尔伯特空间是有限维还是无限维,可以继续设计实验来检测量子引力效应。但无论答案是什么,明天早上我还是会被闹钟叫醒,还是会在 DeadLine 前感到焦虑,依然会在翻看老照片时感叹时光飞逝。
12
莫唯书Mark
1天前
未来的AI产品不会只有一个对话框和一个“发送”按钮,它会像空气一样自然而然地出现在你身边,不说话时不打扰你,需要时随时搭把手。你不需要学怎么用,你只需要像跟人协作一样用你的方式跟它说话。

AI终于意识到,它不能把人晾在一边

00
莫唯书Mark
1天前
AI与人的对话不该还用传真机

你有没有想过,为什么我们和AI交流的方式还停留在几十年前的传真机时代?你输入文本,它输出文本,一来一回像两个聋子在传纸条。

但人脑不是这么工作的,你说话的速度比不上你思考的速度,你看一张图表的速度远比你读一段描述它的文字快得多。我们的输入带宽很窄(说话、打字),但输出带宽极宽(视觉皮层占了大脑近三分之一),我们却一直在用最窄的通道和最聪明的AI对话。

最近AI圈有一个很火的观点,别只让AI输出Markdown文本,告诉它“用HTML结构输出”然后直接在浏览器里打开,效果惊人。同样的数据用图表和彩色标注展示,你的理解速度比读纯文字快几倍。

我们习惯了用文本并非因为高效,只是它方便被存储、被解析、被机器处理。我们训练AI用文本思考和回答,仿佛文本是唯一通用的货币。但人脑是模式识别器、视觉搜索引擎和直觉模拟器,你不需要读完一段关于折线图的详细描述就知道趋势是上升还是下降,视觉带宽比阅读带宽高出好几个数量级。

所以当AI把答案封装成HTML页面,带颜色、带布局甚至带滑块时,它正是在把你应该用眼睛完成的工作交还给你的眼睛,你的大脑皮层里负责视觉的区域终于被激活了,之前你一直在用负责语言的小区域硬啃枯燥的字符。

未来AI和人的协作不应该用同一套格式,AI之间可以继续用JSON、Markdown这些高效的结构化文本沟通,那是机器语言。但当结果需要呈现给人时,就应该把它“渲染”成人能最快吸收的形态。它可能是图表,可能是可拖拽的时间轴,可能是实时更新的仪表盘。

我们花了太多时间教会自己适应机器的语言,却忘了机器可以来适应我们。你可能担心HTML会消耗更多token,生成更慢。但不妨算一笔账,多花几秒钟生成换来你几分钟甚至几十分钟的理解效率提升,哪个更值?

这还只是第一步,继HTML之后还会有交互式组件、实时渲染的视频、能让你亲手调整参数的模拟环境,未来的AI输出将是一个你可以“玩”的界面。你不会问“这个公式怎么推导”,你会直接拖拽变量看曲线如何变化。你不会读“这个建筑的结构分析”,你会走进一个可旋转的三维模型。AI不是在替你思考,它把你的思考外包给你的感官。

相比更大的上下文窗口,未来的入口更有可能是更宽的视觉通道。下次你用AI时试着加一句:“用你能想到的最直观的方式,把结果展示给我。”你可能会发现之前不是AI不行,是你一直没给它机会用你的语言说话。
01
莫唯书Mark
1天前
一个愿打一个愿挨

兽爷丨清华天才“崩老头”

12
莫唯书Mark
2天前
在不确定的未来里,如何长出正确的方向?

我跟不少科技公司的CEO聊过同一个困惑,他们觉得AI的变化太快了,快到任何战略规划都像是在赌。过去做三年路线图,心里是有底的。现在你刚把资源砸进一个方向,可能过几天就出来一个更强的模型,你的投入瞬间贬值。不赌吧怕错过,赌呢又怕赌错。

更麻烦的是,最前沿的技术感知往往不在CEO们身上,在那些每天泡在代码和论文中的一线工程师那里。他们知道哪个方向值得深挖,哪个垂直场景出现了真实的用户需求,但组织怎么把这些散落在各个角落的“敏锐直觉”转化成有效的行动呢?

很多公司的做法是开全员会让员工提想法,然后管理层筛选、立项、拨款。这个流程走下来少则两周多则两个月,等正式批下来机会窗口早关了。又或者说鼓励员工用20%的时间做探索,但这个模式在KPI的重压下几乎从未真正落地,那20%的时间最后往往都变成了加班。

这说明我们仍在用工业时代的确定性管理模式去应对AI时代的不确定战场,真正的解法不是让CEO变得更聪明、看得更远,我们需要重新设计组织本身让它变成一个内部的风险投资组合。

VC的玩法很简单,不赌一个项目,赌一组方向。不要求每个项目都成功,但要求每个项目都能快速、低成本地验证假设,及时决定是加注还是止损。这套逻辑天生适合AI时代的组织,既然没人知道未来在哪条赛道上爆发,那就让尽可能多的触角伸出去。

这个模式的核心是把探索权交给一线,任何一个工程师、产品经理只要提出一个清晰的假设,比如“我认为用最新的Agent架构做会议纪要,能比现有方案节省用户30%的整理时间”,就可以向公司申请一笔小额的“探索预算”。这笔预算可能只是几万块钱的算力成本,或者几个人的一两周时间。然后他们必须在很短的时间内,跑出一个可以验证假设的粗糙原型。到了约定的时间点,公司再做一个简单的决策:如果效果显著就追加资源当作正式项目孵化,倘若效果不明就调整方向再给一次机会,要是明显走不通就立刻关停。

关停不是惩罚,团队需要提交一份清晰的复盘报告,写明假设哪里错了、学到了什么、下次应该怎么调整。然后他们回到原来的岗位,或者带着新认知申请下一个探索项目。真正让这套模式运转起来的是失败者的待遇,如果一个员工因为探索失败而被冷落,以后就再也没人敢提新想法。

这套机制要落地,领导者的角色必须转变。他不再是那个发号施令、规划一切的人,他需要变成“路书的绘制者”和“资源分配的总设计师”。他不需要知道三年后公司具体长什么样,但需要定义清楚探索的原则。比如哪些方向是公司鼓励的?什么信号出现时可以破格追加资源?什么情况下必须停止输血?更重要的是他需要能回答一个关键问题:“我们为什么要在这个方向下注,而不是那个?”如果领导者说不出清晰的判断逻辑,那么内部的探索就会变成随机游走,而非系统性的播种。

这套机制还有一个额外的好处是它能自然地顺应AI商业化的节奏,目前的市场已经很清晰,技术高速发展期往往是基础设施层和2B方向率先落地,存在明确的付费方和盈利模式。而2C的超级应用,可能还需要几年时间才能跑出来。如果公司把所有资源都押在未来的“爆款”上,可能在黎明前就烧光了弹药。而内部VC的组合打法,可以让你用2B项目产生的现金流去孵化那些前景不明但潜力巨大的2C项目。这样风险对冲了,节奏也更从容。

真正的关键是在组织层面愿不愿意为“孵化”创造土壤,土壤不是一句“鼓励创新”就能当甩手掌柜,它是一套可复用的、不依赖个人英雄主义的规则。

比如设立“探索预算”机制,给每个团队每季度固定额度的“探索积分”,可以兑换算力、设计资源、用户测试配额。积分有有效期,不用就作废,用完即止。积分额度可以根据团队过往的探索成功率动态调整,这比“20%时间”更可衡量,也更少博弈。

还有建立“失败复盘”的正向激励, 项目关停后如果团队能提交一份高质量的复盘报告(必须包含原始假设、验证方法、关键数据、失败归因以及可迁移到其他项目的经验),他们还能获得认可甚至小额奖金。复盘报告要公开存档成为整个组织的认知资产,这能从根本上改变“害怕犯错”的文化。

亦或是设置一个跨层级、低摩擦的提案通道, 对于层级较多、信息容易衰减的组织,一线员工的想法可以通过匿名或实名方式直接进入一个由技术、产品、战略组成的快速评审会。评审会每周固定半小时,只做“继续探索”或“停止”的决策,不要求详细商业计划。对于结构较为扁平的公司,可以改用“内部开源”模式,让任何员工都可以公开提出一个探索性代码仓库,其他人自愿加入。哪一种更有效取决于公司的管理风格,但核心原则是减少中间环节的信息损耗。

这些机制不复杂,但需要管理层真心愿意为“不确定性”买单。它们的成本被严格控制在可接受的范围内,而产出的那些被验证的、可继续投入的方向正是组织未来的增长引擎。

AI时代的不确定性,不会因为谁的远见而消失。未来真正的赢家是在每一个不起眼的角落里都埋下了种子、并且懂得如何浇灌的园丁。他们不知道哪一颗种子会发芽,但知道只要土壤够好、日照合理,总会有一片森林长出来。
03
莫唯书Mark
3天前
软件即服务的本质是服务,而非软件。所以AI时代SaaS会死吗?或许软件会死,但服务不会
10
莫唯书Mark
3天前
其实按相同的逻辑,抖音也应该活不过2017年。当时字节的推荐系统需要为每一次用户刷新实时计算海量特征,服务器账单同样惊人。期间是工程团队花了数年时间通过模型量化、蒸馏、稀疏化、软硬协同设计等方式把推理成本从“一次刷新几毛钱”压到了“一次刷新几分钱”,事实上大模型的推理成本也正在以每年约一个数量级的速度下降。

此外“以 2025 年的投入去烧 AI 应用,字节现金流撑不过 2027 年”的说法也站不住脚,大厂在做AI投资时优先考虑的是长期资本配置效率,而非短期的现金流枯竭,何况按字节目前的营收增速也枯竭不了。

AI产品并非没有规模效应,“更多用户 更多反馈数据 模型优化 推理效率提升 单位成本下降 可以再服务更多用户”的飞轮本质上是相通的,区别只是抖音从2016年到2021年广告收入爆发,用了整整五年。AI应用从爆发到技术、商业化成熟,可能需要同样甚至更长的时间。

所以字节收缩应用层,只不过是一种理性的战略聚焦罢了,这是商业世界的常态。用互联网的思维去做 AI 产品创业也并非死路,只是大厂有大厂的玩法,小厂有小厂的路径。

商业化不成熟不等于商业化不可能,AI时代商业的底层逻辑并没有改变,当前的“寒冬”和“收缩”是在清洗那些只讲DAU、不讲利润的故事贩子,历史又将进入一个相似的轮回。

玉伯: 听闻字节全面收缩在 AI 应用层的投入,应用层聚焦到豆包,硬件层押注 PICO+ AI 硬件。 原因是:烧不起,以 2025 年的投入去烧 AI 应用,字节现金流撑不过 2027 年。 巧合的是,最近还听闻有几家 ARR 过亿美元的 AI 应用公司,开始在默默裁员,公司现金流压力非常大,很难持续。 还有一个偶然看到的新闻是,百万粉丝博主 Dan Koe 的创业产品 Eden,因烧钱太快,决定大幅裁员,产品停止迭代。 这一切都在揭示一个规律: 用互联网的思维去做 AI 产品创业,死路一条。因为 AI 产品没有规模效应,追求 DAU 等互联网时代的规模指标,会是有钱的 AI 产品存活不下去的主因。 没钱的 AI 产品创业公司,因为没钱可烧,无法追求规模,反而有机会看见真相。然后逐步赚取到真正的利润,有机会一步一步长大。 尊重经营,尊重时间。每个 AI 产品的创业者,可能都得重新审视这八个字。

02
莫唯书Mark
4天前
当AI开始自己写代码,我们还需要训练它吗?

过去十年,让AI变强的路径非常单一。喂更多数据,用更大算力,训更大模型。这条路造就了ChatGPT,但也留下了一个尴尬的问题,尽管模型越来越强,但你永远搞不清楚它为什么成功,又为什么失败。就像一个天才学生,考试总拿满分,但你问他解题思路,他说不清楚,你想帮他修正一个错误,也无从下手,因为错误藏在几千亿个参数里,你无法找到那颗拧错的螺丝。

然而最近OpenAI的一位工程师做了一组实验,提出了一种新的可能。他让一个AI编程助手(Codex)反复做一件事:自己写代码,自己运行,自己看结果,自己找bug,自己改代码,然后再跑一遍。几轮之后,这个AI写出了一套纯代码的策略,在经典游戏打砖块中拿到了理论最高分864分,在机器人控制仿真中也跑出了接近主流强化学习算法的成绩。

这个实验带来真正的冲击在于它挑战了AI领域一个默认的前提,即智能只能通过训练神经网络权重来获得,它所提供的替代方案是经验可以被写进代码,变成可读、可改、可测试的软件。

传统训练AI的方式有点像培养一个运动员,你给他看海量的比赛录像,让他在无数次的试错中调整自己的肌肉记忆,最后他打出了好成绩,但你没法打开他的肌肉去看“哪根纤维记住了什么”。而新方法是让AI自己当教练,它写下训练计划(代码),执行计划(运行),看回放(日志),然后修改计划。因为每一步都是白纸黑字,你可以看到它改了哪里,为什么改以及效果如何。

这两种方式本质上是两种知识存储形式,一种藏在神经网络的千亿个权重里,像一块无法读取的硬盘。另一种写在代码和测试里,像一本随时可以翻阅的手册。前者在过去十年证明了它的威力,但它的盲区也越来越明显。因为你不知道它为什么犯错,也不知道怎么单独修正一个错误,你只能重新训练整个模型,然后祈祷它没有忘记之前学会的东西。

后者恰恰相反,它的知识是显式的、模块化的、可审计的。当一个机械臂在某个角度突然失效,你可以打开策略代码找到那个条件分支,看到“当关节角度大于X时执行动作Y”,你可以直接修改那一行,然后跑回归测试以确认没有破坏其他功能。这在软件工程里是最常规的操作,但在神经网络的世界里几乎是天方夜谭。

当然,这条路也有它的边界。实验中最具警示意义的一个案例是一款极其复杂的冒险游戏《祖玛的复仇》,AI最终拿到了400分,但翻开它的策略代码你会发现那并非一份通用的“走迷宫策略”,而是一串被硬编码下来的86个固定动作序列。也就是说它根本不是在“玩”游戏,只是在背答案。这个反例暴露了程序化策略的表达力极限,当任务需要长期规划、从中间状态接续、处理从未见过的场景时,你就无法用几万行规则去覆盖一个开放世界里的所有可能性了。

所以,真正的未来出路大概率是分工。感知层面的、快速的、模式识别的任务交给神经网络,逻辑层面的、可审计的、安全关键的决策交给代码化的规则,让AI编程助手来充当两者之间的桥梁。因为它既可以阅读神经网络的输出,也可以修改代码规则。既可以把失败案例提炼成新的测试,还能把一次成功经验固化成一条可复用的函数。

这个实验还有一个容易被忽略的产业意义,当下最火的AI Agent产品核心痛点是什么?是不稳定。今天它能帮你订机票,明天同样的指令可能就把酒店订错了。但如果Agent的核心能力有一部分是代码化的,你就可以把一次成功的操作路径保存下来,变成可复用的工具,也可以把一次失败的教训写成测试,防止它再犯。当监管机构可以审核你的代码,工程师可以在事故后复盘,这将对机器人、自动驾驶、医疗设备等安全关键领域尤其重要。

所以我们可能一直误解了“学习”这件事,它不一定非要发生在神经元的权重调整里,也可以发生在工程师修改的一个条件语句里。前者是生物的、隐式的、缓慢的,后者是工程的、显式的、快速的。当AI足够强大到能自己维护一套代码系统时,我们也许并不需要把所有经验都压缩进那团无法解读的权重矩阵里,而是把一部分经验写成一本可以翻阅、可以修改、可以传承的手册。

真正的智能可能既需要神经网络那样的模糊直觉,也需要代码那样的精确逻辑。至于这条路能不能走通,还需要更多的实验来提供证据。但我认为至少大方向是对的,因为直觉告诉我们一个有手有脚、会写文档、会自我反思的智能,相比一个只会猜下一个词的智能,更接近我们想象中的未来。
00
莫唯书Mark
5天前
AGI 之路,可能从一开始就走错了

你有没有观察过一个小孩是怎么学会“把积木堆高”这件事的?他拿起一块红色的放上去,再拿一块蓝色的放在旁边。积木倒下来,他皱眉,再试一次。这次把大的放在下面,又倒,他看看你,然后把所有积木推散,重新开始。他就在那个小小的地毯上,试错、观察、调整、再试。一个下午之后,他就能稳稳地搭出一座歪歪扭扭但不会倒的积木塔。

这个过程在今天的人工智能里几乎完全不存在,我们给模型看了几百万张堆好的积木塔,它学会了什么样的形状看起来像一座塔。但你让它亲手搭一次,它连第一块都放不稳。因为它不知道重力是什么,不知道摩擦系数,不知道大块在下面更稳。它只知道在它看过的那些图片里,塔的底部通常比顶部宽,这是一种惊人的模式识别能力,但它不是智能。

我越来越觉得,我们在通往通用人工智能的路上,可能从一开始就走错了方向。这并非算力不够的问题,也不是数据太少,我们用最暴力的方法把全互联网的文本喂给一个模型,让它预测下一个词,然后惊讶地发现它居然能聊天、写诗、通过考试。很多人以为看见了曙光,但我担心的是我们只是在一座名为“统计重复”的错误山峰上插了面旗帜,而真正的智能在对面那座名为“因果理解”的更高山峰上。

如果我们只是想要一个更好的搜索引擎、一个自动补全工具、一个语音助手,这条路完全走得通。但问题在于,我们在把它当作通往通用人工智能的圣杯。我们假设只要模型足够大、数据足够多、算力足够强,那些缺失的因果推理能力就会奇迹般地涌现出来。但这个假设没有找到任何依据,就好像你把一本百科全书翻烂了,也不会因此学会骑自行车。

一个很危险的信号是,这些模型都患有一种我称之为“病态自信”的毛病。你问它任何问题,它都会给一个确定的答案,语气笃定得像在宣读真理。它从来不会说“我不确定,我猜可能是这样,但你别全信”,也不会说“这个问题我需要更多信息”,更不会说“等一下,我发现我刚才说的一句话和你之前提供的事实矛盾了,我需要重新看一下”。

这种主动的、坦诚的不确定性表达,我至今没有发现任何一个大语言模型能做到。而任何一个有基本智能的个体,不管是人类还是动物,都必须具备这个能力。因为你如果不清楚自己知道什么、不知道什么,你怎么决定下一步该学什么?你怎么判断什么时候该相信自己的判断,什么时候该去求助?

这就是为什么我说路可能走错了,我们把所有精力都押注在“无脑扩大规模”上,而几乎没有人认真研究“如何让一个系统知道自己不知道”。我们把大量的钱砸在训练更大的模型上,却很少有人去设计那种能主动问你“你的需求到底是A还是B”的交互。我们被模型的流畅性迷惑,误以为流畅就等于理解,这是一个集体的认知偏差。

我并不是说大语言模型没有价值,它改变了很多人工作、生活的方式,包括我自己。我只是想说,如果这是我们通往AGI的唯一地图,我们大概率会走向一个死胡同。在路的尽头你会碰到一面墙,墙对面就是那些它永远不会拥有的能力,比如因果推理、反事实想象、主动的不确定性声明、目标的自我修正。这些能力不是靠多看几万亿个词就能长出来的,它们需要的是一种完全不同的架构,一种从设计之初就把“自我认识”和“对世界的因果模型”嵌在骨头里的架构。

那么,正确的路应该是什么样的?想象你要去一个陌生的城市出差三天,你有两个AI助手可以选择。

第一个助手是目前市面上最常见的那种,你告诉它:“帮我安排一下行程。”几秒后,它就为你呈现了一份详细的计划:第一天上午九点开会,十一点拜访客户,下午两点参观工厂,晚上七点推荐你吃火锅,第二天八点出发去另一个区……每一个时间点都精确到分钟,每一个建议都斩钉截铁。你问它:“火锅店为什么要选这家?”它说:“因为这家评分最高。”你再问:“我其实不太能吃辣,你考虑过吗?”它顿了顿,然后重新生成一份计划,把火锅换成了粤菜,其他纹丝不动。你总觉得哪里不对,但说不上来。你只能自己打开地图,重新查一遍交通时间、会议地址、餐厅评价,然后把它的计划一页一页推翻。你发现,你花在纠正它上的时间,可能比自己从头做一遍还长。

第二个助手完全不同,你告诉它:“帮我安排一下行程。”它没有马上给你答案,而是先问:“你这个出差,最重要的目标是什么?是拜访客户,参加展会,还是处理内部事务?”你说是拜访客户。它又问:“你倾向于白天把正事集中处理完,晚上留时间自己逛逛,还是愿意把正事分散开,保持每天节奏轻松?”你说前者。它再问:“你对饮食有什么忌口吗?”你说不太能吃辣。问完这三句,它才生成一份计划,计划里每一个推荐旁边都标注了置信度:“这家餐厅距离你下午的会议步行八分钟,我有九成把握你会顺路,但它的招牌菜微辣,你可能需要注意,这一项我只敢说有七成把握。”如果你问它“为什么要选这家火锅店”,它不会只说“评分高”,而是把推理链条摊开:“因为你之前告诉我你喜欢吃牛肉,这家店的牛肉在本地排前三,但我注意到你后来又补充说不吃辣,所以这个推荐的基础已经动摇了,要不要我换一家不辣的牛肉馆?”你同意之后,它不只是换掉餐厅名字,还重新检查了整个行程,比如交通时间是否还合理,晚饭后的安排是否要微调。它会告诉你:“我把火锅换成粤菜后,发现这家粤菜馆旁边恰好有一个你很感兴趣的博物馆夜场,要不要顺路加上?”

这两个助手,哪一个更接近你想要的AGI?显然是第二个,但第二个助手所需要的能力,恰恰是目前所有大语言模型都不具备的,这些能力不会从更大的模型里长出来,它们需要被当成核心目标来设计。

一个真正智能的系统,应该像那个合格的旅行助手一样,在它不懂的时候问清楚,在它不确定的时候说清楚,在它犯错的时候改清楚。它不会让你觉得“哇,它什么都知道”,而是让你觉得“嗯,它知道它知道什么,也知道它不知道什么,我可以放心跟它合作”。

与其在错误的斜坡上继续加速,我们还有一个机会重新选择,停下来思考下我们到底想要什么样的智能?是一个从不出错、从不犹豫、永远正确的神?还是一个会犯错、会学习、会承认自己不知道,但因为坦诚而值得你信任的伙伴?

至少我会选后者,因为神不需要我们,而伙伴需要。
64
莫唯书Mark
6天前
到底什么是AI原生?

我用过各种各样的AI产品,从代码助手到写作工具,从会议纪要到设计稿生成......用了一圈之后,我发现其实大多数产品的用法都差不多。你在一个对话框里输入需求,它输出结果,然后你复制粘贴到某个地方,结束。

这不禁让我想到一个词,电灯时代的蜡烛。当年第一批用电灯的人还是把它当蜡烛用,想照亮就打开,用完就关上。却从没想过电灯可以彻夜长明,还可以做成路灯、台灯、霓虹灯,他们的想象力被蜡烛封印了。

今天我们对AI的使用,很多就处在“电灯当蜡烛”的阶段。我们用它加速原有的工作流,却很少重新思考工作流本身。

什么是AI原生?不是在你的App里加一个对话框,也不是在你的文档编辑器旁边放一个“AI润色”按钮。AI原生是你从定义问题的那一刻起就假设AI存在,你不再问“用户怎么操作”,你问“用户想达成什么”。操作是AI的事,达成是产品的事。

举一个最简单的例子,传统的笔记软件需要你新建一个文档,写标题,写正文,加标签,然后分类整理。你的操作路径是清晰的,但也是繁琐的。AI原生的笔记软件只需要你对着它说:“我今天开了一个会,讨论了三件事情,预算、排期和人员分工,你帮我记一下,回头整理成会议纪要。”它不会给你一个对话框让你填字段,而是直接生成一份草稿放在你的笔记列表里,你可以随时打开看,还能继续改。

听起来似乎没什么大不了?但其中有一个本质的变化,你不再是“操作”笔记软件,你是在“指挥”它,你的角色从执行者变成了意图定义者,这才是AI原生最核心的转变。

那么,该如何设计AI原生产品呢?有几条核心原则可以遵循。

第一是别让用户学你的语言,传统的产品设计本质上是设计一套操作语言,用户得学会这套语言才能使用产品。AI时代的语言就是自然语言,标准就是用户怎么舒服怎么说,产品就得怎么理解。你不需要教用户“拖拽这个图标到那个区域”,他只要说“把这张图放到第三页的右上角”。产品能不能听懂是你的责任,不是用户的。

第二是给选择,别给答案。用户的需求很少是唯一的,一个模糊的指令背后可能有多个合理的解。AI应该生成这些解,不要擅自决定哪一个是最好的,因为“最好”取决于用户的语境、偏好、甚至当场的心情,这些因素只有用户自己知道。AI提供选项,用户负责判断。这个分工一旦明确,产品就不再是一个决策机器,更像一个协作伙伴。

第三是让用户看见你的思考,黑箱是信任的敌人。你越不让用户知道你是怎么得出结论的,用户越不敢用你。AI原生产品应该在用户需要的时候打开一扇窗,展示推理的关键步骤、参考的信息来源以及每个选项的置信度。这不只是为了解释,更是为了教育。用户通过看AI的推理过程,学习如何更好地表达意图,如何更精准地判断结果。产品的使用过程,同时也是用户认知升级的过程。

第四是记住用户,也给用户遗忘的权利。你不需要每个会话都重新介绍自己,产品应该记得你的偏好、你的习惯、你过去的选择。但同时也必须让你随时可以查看它记住了什么,并且支持删除、修改。记忆是信任的基础,而信任的前提是可控。一个偷偷记录你所有行为却从不给你看的产品,你不觉得背后发凉吗?

第五是允许用户打断和修正,AI的第一次输出很少是完美的。好的AI产品应该允许用户在任何环节介入,修改一个词、调整一个参数、补充一个条件,然后AI基于修正重新生成结果。因为人机协作的本质是人和机器一起把事情做好,而非机器做完人只管接受。

把这些原则放在一起,你会发现一个有趣的变化。AI原生产品的设计重心,从“界面”转移到了“对话”。界面变成了载体,对话才是核心。用户不再关心按钮在哪、菜单怎么展开,他关心的是我能不能用最舒服的方式把我的意图告诉它,然后得到我想要的结果。

这个变化对AI原生产品的设计提出了新的要求,这意味着你是在设计一种对话的节奏、边界和容错机制。你得想清楚什么时候AI应该主动问问题,什么时候应该保持沉默。你得设计出用户追问“为什么”之后呈现的信息密度和层次。你得预估用户修正输出时,哪些部分应该锁定,哪些部分可以修改。这比画一个漂亮的按钮难得多,但也更有价值。

电灯刚发明的时候,人们只是把它当作蜡烛的替代品,用来照明。但后来有人用它做了路灯,照亮了整条街道。有人用它做了车灯,让汽车在黑夜中也能行驶。有人用它做了信号灯,指挥着整座城市的交通。

今天的AI也是如此,AI原生产品的任务是要用AI去照亮那些以前无法照亮的角落,在那片还没有路灯的街道上铺就一个光明的未来。
00