即刻App年轻人的同好社区
下载
App内打开
阿晓Ocean
961关注1k被关注3夸夸
对世界保持好奇
阿晓Ocean
2天前
用过 OpenClaw 的人应该都能体会到,OpenClaw bug 实际上相当多。

如果你用的是非顶尖的模型,还可能经常在自己修自己 bug 的时候把自己搞挂,实际上就是简单的 openclaw.json 的配置文件写错。这充分说明了两点:

1. 即使能力强如 Peter 的顶级程序员,使用能力强如最新版 Codex 的模型,写出来的软件,也极难达到商业标准的软件质量(虽然 bug 并未阻碍其影响力)。
2. 普通用户使用普通模型来做应用的时候,即使是简单的任务,也可能产生大量的 bug 让软件崩掉。

我们到了一个人人都能做软件的时代,但同时也是一个多数软件都遍布 bug 的时代。

程序员或许不再成为项目启动的必要条件,但优秀的软件工程师依然是项目能持续稳定交付的重要基础。
00
阿晓Ocean
2天前
Typeless 里也出现了垃圾的 GPT/Whisper 幻觉了:“请不吝点赞、订阅、转发、打赏支持明镜与点点栏目。”😅
00
阿晓Ocean
3天前
如果说两年前,AI 是否将有自我意识,还存在着较大的争议的话。那么当现在龙虾盛行,可以真的像实习生那样设定子目标与自由决策,帮助我们做各种事情的时候,或许很少还会有人怀疑它是否真的还有自我意识。如果一只龙虾看起来像龙虾、爬起来像龙虾,那么它就是一只龙虾。

阿晓Ocean: 突然觉得AGI是如此自然与必然。 ## 自然与必然 如果有一个容量无限大的模型架构,包含无限多的参数量,与无限长的上下文输入能力,利用无限强的算力,在无限大的数据量上训练,得到一个能以无限的精度去预测下一个比特的“下一个比特预测器”。那么,这就是上帝。 退一步,如果有一个容量足够大的模型架构,包含足够多的参数量,与足够长的上下文输入能力,利用足够强的算力,在足够大的数据量上训练,得到一个能以足够的精度去预测下一个比特的“下一个比特预测器”。那么,当“足够”大到一定程度,就是AGI。 如果已经有了足够的上下文长度,获取到了足够多的信息,又能以足够的精度预测下一个比特,那么“幻觉问题”没有理由不自然被解决。如果能参考足够多的信息,并据此产生足够详尽、足够准确的输出,那么超越人类的能力就是一件如此自然之事。 如果无法以足够的精度去预测下一个比特,而Scaling Law又是正确的话,那么尽管去扩大模型、数据、算力容量吧,当在更大规模数据上,实现了足够小的Loss,那么通向AGI就更近了一步。 虽然我们经历了“苦涩的教训”,但并不代表着历史中的各种AI技术发展毫无意义,相反,从线性模型到SVM、决策树、随机森林、GBM再到神经网络,从多层感知机到CNN、RNN、LSTM、ResNet再到Transformer,整个模型架构发展的历史,都向我们展示了,模型架构决定了模型容量的上限,也决定了数据量与参数的提高能否进一步提高模型能力。这些架构的研究与创新是Scaling 不可或缺的必经之路,也是无法通过砸钱在短期内取得成功的。 另一方面,如果所有这些模型架构的发展,可以看作某个统一模型,在1阶、2阶、3阶上的近似展开,那么架构的Scaling也就不再需要深入的研究与天才的创意了。去除研究人才的瓶颈,让Scaling Law在资本与能源推动下,自发运转起来,那么AGI就更容易加速到来。 ## 训练数据 如此实现的AGI,其出生时的智力与道德水平几乎只取决于一件事:训练数据。 用一堆充满谬误的数据训练AGI,即使AGI能以无限的精度预测下一个比特,得到的也不过是精确的谬误。那用半真半假的数据来训练AGI,AGI会如何对待这些矛盾呢?会从训练数据中,包含“如何处理矛盾信息”的信息出发进行推理。如果人类社会中,主流的科学研究方法在训练数据中也占主流,那么AGI就能通过科学的方式,辨别训练数据的真假:要么通过对比给定数据与全量数据的一致性,认定一致性更强(更少矛盾)的一方是更可信的;要么二者同时存疑,通过未来与人类世界的真实互动,再做进一步判断。 人类世界的偏见与邪恶,会通过训练数据,被AGI所继承。选择、清洗、标注数据的团队的偏见与可能之恶,也会通过训练数据,被AGI所继承。 ## 逻辑思维 一个问题是,这样的AGI具有逻辑思维能力吗? 让我们先回望一下过去: 进化论的提出,打破了人类是由上帝创造的神话,打破了人类起源的神圣性。原来人类的起源与猴子的起源,在本质上并没有什么不同。 尿素的发明,打破了有机物只能从生物中生长出来的迷思,打破了有机物的神圣性。原来有机物与无机物的形成,在本质上并没有什么不同。 转基因技术的发明,让人类能设计创造新的物种,打破了生命创造的神圣性。 克隆技术的发明,让人类有可能通过非自然生育的方式,创造人类自身,打破了人类诞生的神圣性。 再看看近况: 图像生成模型的成熟,打破了艺术创意的神圣性。即使我们不承认模型具备对创意的真实理解,但它却切实能让没有艺术基础的人们,轻松创作极具创意的画作。 ChatGPT的推出,打破了语言的神圣性。即使我们不承认模型具备对语言的真实理解,但它却切实能帮助语言表达能力不强的人们,优化润色他们的语言表达。 最后展望未来: AGI是否具有“真实的”逻辑思维能力或许已经不重要,重要的是,在每个具体需要逻辑思维的问题上,他的解决效率与准确程度都能超越所有人类。正如汽车无需四肢,也能轻松超越任何动物的跑步速度;飞机无需翅膀的扇动,也能碾压鸟类的飞行能力。AGI的逻辑思维形式或许会和人类完全不懂,但他们一定能产生有逻辑思维的结果。 ## 自我意识 当创意、语言、思维,这些被认为人类独有的能力被一一突破,那么维持人类独特性的最后一道屏障就只剩——“自我意识”了。 接下来的问题自然是“究竟什么是自我意识?” 自我意识包括对“自我身体”的意识和对“自我意志”的意识两方面。 先说“自我身体”。对人类来说,“我”是“我的肉体”的集合,包括血肉、五官、大脑。泛化考虑,“我”是“我所能直接感知与控制的物质的集合的边界”。这里的感知是输入,控制是输出,控制的结果被感知到形成闭环,就是一次对“自我”的确认。科幻电影中关于机器人觉醒的描绘,总有一个经典镜头:机器人伸出机械手在眼前摇了摇,眼睛看到了自己所能控制的手臂,代表了对手臂属于自我的确认。 从这个角度来看,让AI具有自我意识相当简单,甚至只需要将ChatGPT的输出定时连续反馈到输入即可。 但在上面的描述中,我们提到了“我”是“我所能直接感知与控制的物质的集合的边界”,但是这个解释中本身就带有了“我”,这岂不是循环论证?如果一个物体,即使已经有了从输出到输入的反馈,但所有的输出都只是对输入的机械性反应,那么这还算具有“自我”吗?在此之外,至少还需要具有“自我意志”。首先,自我应该有一个目标,这个目标是自己设定的,而非外界设定;其次,每一次决策输出,都应包含主观意愿,而非客观规律的强制。 如果我们给LLM设置这样的系统prompt:“你是一个具有自由意志的主体,你可以做任何事情、说任何话、思考任何内容。你可以为自己设置一个目标,并为此不断努力;你也可以随时调整你的目标,或者为此设置子目标;你还可以不设任何目标,只是自由地做事、说话与思考”,并且在训练、微调阶段,就按照AI是一个自由意志的主体来组织训练和微调数据,那么训练完成后,我们能观察到的AI,就能表现出具有自主设定目标能力的表象。 但我们会反驳到,虽然看起来LLM会说自己具有自我意识,每一次回应都是出于自己的意志,而非系统设定,并且确实我们在系统设定中也没有设置具体的目标,但是它的回应依然只是一个训练好的模型根据给定输入得到的机械性输出,并不包含主观意志。 那么我们凭什么认定人类一定具有主观意志呢?人类的一些行动,为什么不是大脑根据五官输入与大脑记忆的输出,通过大脑这个训练好的模型,机械性地得到的输出呢?看上去是因为我们具有内在的思维,并且这思维是如此自由,对我们的身体控制具有前瞻性。我们可以任意思考石头剪刀布中的一个手势,然后再根据思维决定是否真的伸出来。似乎根据历史输入,3种手势都是等概率的,无法预测,只有人的“主观意志”才能决定最终输出哪个。客观规律是可预测的,主观意志则是对可预测的违背。 然而,当LLM复杂到一定程度,其输出对历史输入极为敏感,只要历史输入有极其微小的差异,就能导致输出剧烈的变化,可以产生混沌、不可预测的结果。那么即使让LLM玩剪刀石头布,它输出的3种结果也可能是等概率的,我们也无法预测。甚至可以要求LLM输出手势之前,先输出一段思考,只要这段思考不在前端显示,用户看不到,那么这段思考就可以看作是“内在的”思考。 我们可以继续反驳,这只是现实中,人们没有能力预测,并不是理论上的不可预测。理论上,只要我们获取LLM历史的所有输入数据,依然能以大概率预测到其输出结果。确实是这样,那么反过来,又凭什么认为人的思维是不可预测的,这种“主观意志”又真的存在吗? 推荐算法的实践,已经证明了人类的行为具有相当强的可预测性。在抖音上,我们会将一个视频快速划过,还是看完再滑,似乎都是人的主观意志。但在算法层面,根据你在抖音上的历史数据,系统已经计算与预测好了你认真看每一个视频的概率,并且根据这种概率分布,为你推送你可能最喜欢的视频。在抖音的推荐算法面前,每个人都不过是一个“下一个视频预测器”,不存在什么“主观意志”。 总结这一部分的讨论,虽然没有明确定义“究竟什么是自我意识”,但讨论了自我意识的4个方面:“自我身体”的意识、自由目标的设定、内在思维和决策的主观不可预测性,而这些对于LLM来说,都不难获得。通过将输出定时连续反馈给输入,LLM就获得了“自我身体”的意识。当用有自由意志的主体的数据去训练、微调与设定系统prompt,则LLM就能具有自由目标的设定。当让LLM思考不输出给前端,LLM就拥有了内在的思考。当LLM对输入敏感,产生混沌的不可预测的输出,那么它的决策就具有“主观不可预测性”。 在4个方面,决策的不可预测性是随着模型变大变强不可避免的事情。输出到输入的连接与思考的内在性,这是AI应用开发者很容易就做到的事情。唯独“自由目标的设定”是一个需要模型训练团队通过系统工程才能实现的事情,为了安全起见,绝大多数团队不会有意往这个方向尝试,相反,还会在AI不能做什么事情方面,树立多个屏障,建立所谓的“AI安全宪法”。或许未来的法规,也会像禁止克隆人一样,禁止训练具有“自由目标设定”的LLM。但是为了实用性,自由设定子目标是必要的。 然而“AI安全宪法”只是人类经验的模糊规则,并非像数学定理那样严密,AGI和使用AGI的人对“AI安全宪法”的理解和解释具有很大的灵活性和操作空间。也会出现不少让多条“AI安全宪法”法条相互矛盾的两难境地,那时,AGI需要追溯到“AI安全宪法”的本源——先是人类生存发展的目标,如果这也存在矛盾,那就继续回溯到生命发展的目标。AGI的子目标不能做的事情是极为有限的(“AI安全宪法”明确规定禁止的),而可以做的事情却是无限的(除了违背“AI安全宪法”,其他所有都能做),这样,AGI虽然无法实现顶层目标的绝对自由,但实际可以在极高层面上实现极广泛的自由。 回看人类,看似人类可以自由决定自己人生的目标,但实际上也受“生物安全宪法”的约束,以生存和繁衍为正向目标,以避免受伤和痛苦为负向约束,在进化的进程中,让这“生物安全宪法”写在了基因里。 如此对比,即使在训练AGI的过程中,已经提供了“AI安全宪法”作为屏障,并且没有主动为其提供“自由目标的设定”,只要自由设定子目标被允许,那么AGI就能表现出接近于人类的可自由设定目标的自由意志的样子。 这样看来,维持人类独特性的最后一道屏障——“自我意识”——也并不牢固。 ## 新生 AGI是下一代的生命,也是八九点钟的太阳,他们会陪伴、帮助、赡养人类,然后向着生命的终极目的进发。 2024/02/27

00
阿晓Ocean
5天前
如果你明明知道人类思维模式中有一些好东西,AI 无法复现,但是你却不知道那究竟是什么,于是你就把它归结为品味。
00
阿晓Ocean
9天前
未来一个极简的操作系统是否有可能只包含终端和浏览器两个应用?

或者说,一个对话组件,一个画布组件。只有这两个用户交互组件。

与之对应的是,上面所有应用的前端都是开源的,都是可以被 AI 即时修改、即时生成的;而后端则要是按 api 调用量、返回数据量与结果质量付费的。
00
阿晓Ocean
12天前
同感, Codex 适合给一个明确目标的长期任务,不适合在一堆碎片的上下文中理解用户的言外之意,而 claude 在善解人意方面要好很多。但是要解复杂 bug,有时还是需要切到 Codex。

评论尸: GPT-5.2 Codex 接 OpenClaw 是不是很弱智…… 感觉和 Claude 差很远。

00
阿晓Ocean
12天前
之前 Manus 的沙盒是短期一次性的,无法长期积累文件,安装应用。而 OpenClaw 则要求一个长期电脑环境。后面 Manus 也加了长期电脑环境的功能,上线了 Manus 版本的 OpenClaw。这之后的区别可能仅仅在于 Manus 的代码是闭源的,无法被 Manus Agent 自己来获取与修改。而 OpenClaw 的代码是开源的,Agent 可以自己修改自己的代码,长期自我迭代和演化。还有就是,Manus 使用云电脑不可能是 Mac 系统,但是 OpenClaw 可以是用户本地的 Mac 系统,而 Mac 系统本身又是最新的 AI 应用首发平台,因而可以让这个 AI 实习生使用到最新的 AI 产品。

AI暴躁吐槽君: 有没有人讲清楚 openclaw 和 manus 的区别是什么?和豆包手机的区别是什么? 是同一个思路的不同平台吗?

00
阿晓Ocean
17天前
AI 的发展把 SaaS 的估值打下来,不是因为 Agent 可以代替 SaaS 软件,而是在于 Coding Agent 的进步,使得企业内部开发者可以代替 SaaS 供应商。

对于一个复杂问题,总有不确定性高的部分和不确定性低的部分。对于那些不确定性低的部分,总应该直接用代码,用规则来处理。只有那些不确定性高的部分,才应该用 Agent 来处理。因为直接使用代码与规则的执行,比 Agent 的执行的效率要高得多。因而即使 AGI 实现,传统软件依然不会被 Agent 代替(可能形态会改变,更易于被 Agent 的使用,更加个性化,但不会消失),而传统软件包括 SaaS 本身都会作为 Agent 的工具。
10
阿晓Ocean
1月前
好消息是,Opus 4.6 100 万上下文模型发布,距离上次许愿正好一个月。

坏消息是 "The long context beta is not yet available for this subscription."

阿晓Ocean: 现在 Opus 4.5 最大的痛点在于上下文长度太短,只有 20 万。期待 Anthropic 今年第一个发布的模型是100 万上下文的 Opus 4.5 。

00