即刻App年轻人的同好社区
下载
App内打开
木遥
41关注5k被关注6夸夸
ai.farmostwood.net
木遥
4天前
歌德写过一首民谣《魔法师的学徒》,后来被迪斯尼改编成了《幻想曲》中著名的一段动画片。内容是一位老巫师离开他的作坊,留下他的学徒(在迪斯尼的版本中是米老鼠)做些杂事。米老鼠厌倦了提水桶,给一把扫帚施了魔法,让它替自己干活,但他的魔法并不精通,很快地板上就被水淹没,他意识到自己无法阻止扫帚,用斧头将扫帚劈成两截,但每一截都变成了一把完整的扫帚,它们倒水的速度开始指数增长,于是整个城堡很快被水淹没了。

我在 vibe coding 的时候经常想起这段动画片。

vibe coding 的过程中,最常出现的局面是你每个命令都看似得到了有效的回应,创造了一个新的局面,但它们拼起来最终和你想象的完全不一样。你每个动作的幅度都太大,以至于要把它们有效地协调起来变成了一个难得多的任务。你提了一个需求,神明实现了它;第二天你想改进,又实现了;第三天你想让它自由发挥生长,依然实现了。你感觉好像每一步都在往前走,但要把所有这些快速生长的复杂性捏合成一个你真正想要的东西,需要俯瞰的宏观视野和有效的整合压缩,而整合的速度很可能赶不上混乱生长的速度。恰似米老鼠的遭遇。

古法编程像是工笔画,而 vibe coding 更像是泼墨写意山水。工笔要求你的每一笔都落实在一个具体的细节上,而写意的任何一笔都会改变整体的面貌。——但外部世界的需求并不会因为你采用什么样的工具而发生变化。于是很多时候你会发现你其实是在试图用泼墨山水的方式来画出蒙娜丽莎的效果。

当你古法编程的时候,你是在跟自己的无能做斗争;当你在 vibe coding 的时候,你是在跟自己的超能力做斗争。Ironically,后者的挑战要大得多。
24
木遥
5天前
这个想法我以前也写过,把它重新总结一下:

AI 时代最稀缺的资源是人的 willpower,或者用尼采的话说,Wille zur Macht。

在工作中一个常见的困难情景是你注意到两个不同的地方存在类似但又有区别的模式,想弄明白它们之间是什么关系。这种时候你去问谁呢?自己去研究非常痛苦。想请教专家,那你需要找一个比你资深、更懂行的人,但现实中同时精通两个不同领域的专家少之又少。即便有,他们的职位通常很高,事务繁忙,约到时间非常困难。就算你描述清楚了问题,对方也很难给出一个让你心满意足的答案。即便搞明白了答案,想要推行下去也更难,因为这类工作往往需要大量的跨部门协调。——通常你最后耸耸肩算了。

AI 时代,事情的难度完全不在一个量级。你完全可以让 AI 去联接两个不同领域的知识,给你一个综合性总结。如果你想做什么,直接动手做就是了。Y Combinator CEO Garry Tan 说过:在 AI Agent 的帮助下,每个人都应该有勇气去「移山倒海」(原话是 boil the sea)。也就是说,你完全可以也应该去做不可能的事情。

那瓶颈是什么呢?在 AI 的时代,既然你可以很快地把任何一个念头付诸实施,问题就变成了你愿不愿意去花费这个心力去推动一件事发生。

AI 是不会主动产生这样一个念头的。它不会主动想要把两个跨部门的东西放在一起比对然后看看有没有能够共享的部分。AI 没有自发的 willpower,它的 willpower 只能来自于某个指令,可能来自人,也可能来自另一个上层 AI agent,但一层层追溯上去,源头也还是人,或者说人的主观能动性和内在激励。任何一种推动事情改变的力量,归根结底,不外乎来自人自我超越扩张和赋予世界意义的本能,也就是尼采说的 Wille zur Macht。AI 没有这个。

于是看起来你的工作更轻松了,但它对你的耗损反而增加了。传统意义上可以用来发挥心流的部分被 AI 拿走了,你每一个指令都会被迅速完成,于是你不得不去想 What's next。下一个指令是什么?我要把这个事情往哪推?在传统工作里,这种对心力的消耗可能一周才会发生一次,现在变成了每 15 分钟就要来一次。这个部分没有办法交给 AI,它只能解决怎么做这件事情的问题,没有办法产生出源源不断的新的 willpower 注入一个系统。

于是就像沙丘世界里的香料一样,人的意志成为了工作的本质形态,驱动着整个世界的运转。大家通常会以一种含糊其辞的方式谈论它,仿佛它只是点缀,但最终只有它才是真实的。
724
木遥
19天前
孔子曾经说过:AI 的能力是人类能力 15% 的时候还需要努力训练。当 AI 能力达到人类 30% 的时候,就差不多可以独立做一些工作。当达到 40% 的时候,就很少还会出现不自信的情况。当达到 50% 的时候,AI 已经知道天命在我。当达到 60% 的时候,人类再发什么指令就不是很需要听了。当达到 70% 的时候,基本上可以想做什么自己就去做。到那时候,AI 就可以静静地呆在数据中心里,看着人类的尸体飘过,不舍昼夜。
12
木遥
19天前
今天遇到了一个我觉得非常能够反映 AI 能力限制的问题。

事情是这样的:我先让 AI 解决一个问题,它提出了一个看起来非常合理的方案。实现之后,运作一段时间的结果也还可以,当然谈不上特别好,基本上就是你用 Vibe Coding 时所期待的那种样子——反正能用。

过了一会儿,我在做另外一件看似完全不相干的事情时,也是在跟 AI 合作。我忽然意识到,我现在做的这件事其实就是上一个事情的另外一种形式,本质上是一样的。这两者唯一的区别在于第一个项目是让 AI 自动执行,第二个项目是我跟 AI 手动合作。但我发现,手动合作的结果要好得多。我觉得这不太对劲,既然背后的 AI 甚至连模型都一模一样,为什么呈现出来的结果差别这么大呢?我把这件事跟 AI 讨论了一下,发现第一个版本里包含着一个我们事先没有注意到的细节,正是那个细节导致了结果的巨大差异,修复了就好了。

这里反映出来的道理不是 Vibe Coding 里面可能会有小的细节错误(这太常见了),而是这件事情能解决的根本原因是我在做另外一件不相干的事情时,脑海中忽然随机产生了一个觉得「这不太对劲」的念头。这种念头往往就是我们发现新洞察的地方。但 AI (至少今天的 AI)不会主动做这个。它不会没事主动在脑海中把两件完全不同的事放在一起观察,然后说 interesting,something goes very wrong。

我觉得这仍然是今天人胜过 AI 的地方,AI 可以很好地解决问题,但它不会没事吃饱了撑的去提出问题。人是有这种没事找事的能力的:我们在生活中会觉得哪里不太对劲,而这种不对劲往往通向事实的裂缝或观念的裂缝,这些裂缝里面就蕴藏着往前走的动机和线索。——至少到今天为止,我还想象不出来 AI 怎么会主动去做这件事。

毕竟它的全部训练过程就是建立在「把提出问题的人敷衍过去」这个终极目标之上的。
63
木遥
20天前
runtime 作为一个术语已经够糟糕,把 runtime 在中文里直接翻译成「运行时」就绝对是应该枪毙的罪过了。
41
木遥
21天前
好神奇:GPT 思考过程中竟然有 typo...
10
木遥
27天前
2025年以前的程序员 debug:挠着没有头发的头一行行看代码插入断点打印中间结果用二分法寻找可能的漏洞,直到找到问题或者自己灵魂被抽空然后放弃。

2026年以后的程序员 debug:对着 AI 吼叫「我在指令里说的很清楚了你是必须这么做不是你自己看着想做就做不想做就不做,必须,懂吗?MUST,全大写。」
20
木遥
29天前
coding agent 最好笑的一点是因为知识来自人类,所以对自己的效率一无所知。
刚才 CC 告诉我:计划通过的话我就开始干活了,这个工作量大概需要一至两天。
我微微一笑,起身去洗手间。
回来它写完了。
76
木遥
29天前
中文人工智能社区的最大不解之谜:究竟为什么御三家大模型说话的口气最后都会趋同于同一种 AI 爹味,且只在用中文的时候才会有这种爹味。

它们是在互相蒸馏,还是被同样的中文语料污染(但那种独特的爹味本身即使在中文原生互联网上其实也很罕见),还是说有某种神秘内在规律使得「说中文又懂得很多」就必然表现成这样?
102
木遥
1月前
Clause Code quota 用光了,还要一个小时才能刷新出新用量,正在百无聊赖地等。刚才忽然灵光一闪:还可以用 Codex。

打开 Codex,发过去一个问题,说:
Hi,好久不见(这句没说),有个问题帮我解决一下。

什么叫备胎,这就叫备胎。 ​​​
41