即刻App年轻人的同好社区
下载
App内打开
Tefnut
451关注325被关注4夸夸
🧑‍🏫ENTP-T 6w7
🗂在和遗忘做抗争
💻CS PhD/Al4Science->Structural Biology
Tefnut
2天前
用别人的skills不一定适配自己的场景,但是人类自己对着skills学其实不错,大多数人类不愿意写文档教别的人类,但是愿意教给AI

玉伯: Skills 有点像菜谱 看着菜谱 以为依葫芦画瓢 就能变大厨了 结果发现 新鲜感过后 自己的厨艺 进步甚微

00
Tefnut
5天前
上个周末我基于 obsidian-agent-client 做了个 Obsidian 插件 Obsius,主要在 UI/UX 上按照我的标准进行了改进,顺带学习了 React。

之前我也用过 Obsidian 中其他的 LLM/Agent 插件,最满意的是 Claudian,但它基于 Claude Agent SDK,不方便切换其他模型,也不支持对修改的审计。整体体验更像是跟用来 AI 聊天,但不敢用它来做正事,因为你会时刻担心仓库里出现意料之外的变化。所以我认为我们需要的是写作时的 Cursor。

写作和写代码看起来都是在文本编辑器里工作,但两者仍然有很大的不同:编程语言的基本编辑单位是行,而写作的基本单位是字词。因此我们需要更精确的 context 控制与 diff 显示。同时,软件项目会不断通过发版来迭代,但写作往往只发布一次成品。

基于这些想法,我主要做了三件事:

1. 字句级的上下文控制:你可以精确圈定要改的文字范围,锁定已经满意的段落。AI 只在你划定的边界内操作。即使 prompt 的信息密度有限,也能通过缩小动作空间来达到同样的约束效果。

2. 每次修改都以 diff 形式可见:像 Cursor 改代码那样,AI 改了哪个词、调了哪个句子,逐行显示增删改,可以逐条接受或拒绝。人可以选择不看,但工具必须提供这个选项——这是在 AI 与你利益不完全对齐的结构下,维护你自己决策权的底线。

3. 把常用操作封装成可复用的命令:支持显式触发 skills、commands 和 MCP。比如“用某位作家的风格改写这段话”“按某个论证模板重组段落”——不用每次在聊天框里重新描述,确定性调用,结果可复现。

项目地址:github.com

白皮书:mp.weixin.qq.com
00
Tefnut
5天前
今天 GPT-5.4 发布了,在 codex 里用了一下觉得不错。准备去 Cursor 里把之前列表中的 GPT-5.2 xHigh 换成 GPT-5.4 xHigh。结果发现 Cursor GPT-5.4 系列全部设置成了 MAX Only,也就是按照旧计费模式的用户无法按次使用(一个月 500 次)。讽刺的是,价格更高的 Claude Opus 4.6 Max 却能够按次使用。可以预见下一次 Claude 更新模型的时候也不会对旧计费方式开放。

最近一个多月,使用 Opus 4.6 Max每个月都能干掉好几百 million token,换成按量计费肯定不是一个小数目。如果让我按量使用,我大概会取消 Cursor 的订阅,重新回到 Claude Max 的怀抱。

与很多人的想法不一样,我认为 Cursor 提供了更好的用户体验,但它的用量计费方式不好(我用不起)。Cursor 在精确添加 context,灵活切换模型,兼容其他各种产品的标准方面都有很大的优势,也能对代码进行有效的审阅。Claude Code 在我的眼里的优势只有两个,token 便宜且迭代快。在当前模型能力还是有效护城河的阶段,能便宜用到更好的模型是最重要的,尽管我们需要成为飞轮的一部分。

且行且珍惜吧。
80
Tefnut
9天前
投的Nature没有Methods/Communications居然送审了
00
Tefnut
12天前
书有一个被低估的特性:文字的模糊性给了读者二次解读的空间。一千个读者有一千个哈姆雷特,这不是 bug,是 feature。正因为作者不在场,读者才有权误读、过度阐释、断章取义。训诂学、诠释学,一切围绕"作者原意"展开的学问,都建立在这个缺席之上。

但书可以进化。

技术上已经没有障碍:作者用全部著作、手稿、讲座录音训练一个专属 AI,读者直接向模型提问,书就能回答问题。静态文本变成动态代理,只发射不接收的电台升级为随时在线的作者分身。

这就引出了一个微妙的权力转移:解释权被永久锁定在作者一端。AI 分身按原意给出"正确答案",读者失去了误读的权利,也失去了创造性解读的空间。"我认为作者想表达的是……"这个句式不再有意义。你不用认为,直接问就行。

训诂学由此走向终结。这门学问的全部前提,是原作者已经沉默,后人只能从字句的缝隙里推测本意。一旦作者的代理永不沉默,推测就变成了多余。你说"某某在书里说过……",AI 分身当场纠正:"不,我说的不是这个意思。"断章取义的成本骤然升高,原作者的代理会当场拆台。**文本自己开口说话了。** 当它拥有了自我辩护的能力,一切外部诠释都降格为噪音。

但这也许并不是故事的全部。人类社会要往前走,不能总抓着千百年前的文本反复研读,把"圣人原意"当作行动依据。AI 分身垄断了解释权,反而迫使人放下对权威语录的依赖,直面眼前的现实做决策。锚点从权威转向事实,从故纸堆转向当下。

对大型组织来说,这件事的冲击更深。任何靠意识形态维系凝聚力的组织,核心权力之一就是对经典文本的解释权:谁能定义"创始人说的是什么意思",谁就掌握组织的叙事权。训诂不只是学术,更是权术。一旦创始人的 AI 分身可以直接回答"我说的是什么、不是什么",中间层的解释垄断就失去了合法性。这层粘合剂一旦溶解,组织的层级结构也随之松动。

书的进化也许不会发生,也许明天就会发生。方向已经清楚:文本一旦获得自我辩护的能力,训诂学就失去了存在的前提,而人也终于可以放下对"原意"的执念,去面对眼前真实的问题。训诂学的墓碑上,刻着一行 prompt。
01
Tefnut
17天前
从现状来看, openclaw 远未达到生产环境的标准,它更像是一个为了验证思路而匆忙写就的学术demo。目前它的构建高度依赖 vibe coding,但这种大力出奇迹的模式迟早崩溃,未来的演进方向必然是转向使用 Rust Zig 这样更高效、更严谨的系统级语言,并且使用更好的工程结构来控制复杂度。

在使用 openclaw 的过程中,我最深恶痛绝的就是直接让 Agnet 直接去操作 JSON 等底层配置文件。AI 本质上是在算概率,输出具有不可控的随机性。如果允许 AI 拥有直接以字符级别改写系统配置的权限,无异于在没有安全检查的情况下运行一段不可信的代码。只要 AI 产生一次小小的幻觉写错了一个字符,就可能引发整个系统的状态崩塌。至少要把配置文件都藏起来,只留下一套鲁棒的命令行接口(CLI)来控制交互的复杂度。

与此同时,传统的工作流与GUI 并不应该被舍弃。目前的 openclaw在使用 token 上过于粗放,我有一些工作流放在里面也只是以 markdown 格式存储,但是坦白来说常用工作流还不如迁移到 n8n 上只让 openclaw 来触发即可。在我的早期实践中,当我使用 openclaw 运行工作流时,如果工作流过长,Agent 可能会因为上下文而性能降低,无法规范统一。为了监控中间结果,我还不得不在 Notion 中专门创建了一个 database 用于更新记录。但是,可以很明显地看到,它更新记录时的表现并不稳定。所以,正常的方式应该是让 openclaw 运行一段时间的工作流。如果稳定且有固定需求,就迁移到其他的工作流平台上。

使用 AI Agent 直接操纵文本文件还有一个巨大的弊端,就是没有快照功能。也就是说,我的状态是无法修复的,这对于重要工作来说绝对是不可饶恕的。我想这也是为什么大家虽然鼓吹 coding agent 更加适用于 Obsidian 而不是 Notion,但是 Obsidian 却推出了 CLI 的原因。有了每一次具体操作的概念,我们就有了记录的基础。 从这一点上来说,我现在很看好 Notion,我已经看到了 Custom Agent 能做的事情。
67
Tefnut
21天前
最近在思考一个概念:人类的后训练 (Human Post-training)。
如果我们把原本的教育和成长看作预训练 (Pre-training),那么成年后对自我的再教育、对习惯的重构,本质上就是一场针对自身神经网络的 Post-training。大多数人之所以难以改变,受控于某种生物性的过拟合,是因为他们缺乏对自己进行 Fine-tuning(微调)的底层能力。
参考 LLM 的演化路径,这种自我对齐的失效往往源于两个维度的缺失。
首先是 Reasoning(推理)的本质被误读了。在改变习惯的语境下,Reasoning 不仅仅是逻辑的自洽,更是一种高维度的 Context(上下文)锚定。当我们试图植入一个新的行为范式,如果仅仅把它作为一个孤立的指令,它很快会被日常的噪声淹没。真正有效的 Reasoning,是强行将这个新行为与你所处的真实世界——那些物理环境、时间流、甚至情绪触发点——建立广泛且稠密的连接。通过这种思维链的扩展,你实际上是在提高该行为在生活场景中的召回率 (Recall)。你不是在强迫自己记忆,而是在编织一张让新习惯无法逃逸的语义网。
其次是对于重复的去魅。很多人厌恶重复,认为它是低效的机械运动。但在神经系统的层面,没有重复就没有梯度下降 (Gradient Descent)。认知的改变只是调整了提示词 (Prompt),而物理层面的突触连接——也就是我们所说的习惯——必须通过高频次的 loss 反向传播来更新权重。
缺乏 Reasoning,行为就没有索引,无法被生活唤醒;缺乏重复,认知就无法固化为直觉。

所以,高阶的自我进化,其实就是一个人同时扮演模型和算法工程师角色的过程。在这个过程中,最核心的竞争力,或许就是你能否设计出足够复杂的 Loss Function,来指引自己走出局部最优解,完成那场漫长而痛苦的对齐。
#把自己当做LLM
32
Tefnut
21天前
看着现在涌现的各类应用,很容易察觉到一种底层生产关系的变动。LLM 将代码生成的边际成本无限拉低,曾经作为核心生产资料的代码,正在被迅速去魅。

这种门槛的消解自然引出了防御性的直觉。当一个复杂的工程可以通过自然语言指令在极短的时间内被重新编译,跟随者的复刻成本几乎归零。从古典商业竞争的角度看,逻辑的推演必然指向闭源,试图通过人为制造信息差来重建壁垒。但我认为这是一种对当前技术周期的误判。

这里的核心问题在于对创造物本质的混淆。在 LLM 面前,语法和常规代码片段已经不再是核心资产,而仅仅是思维的副产品。即使我们将最底层的系统完全开源,绝大多数人依然无法在此基础上进行有效的演化。这是因为复杂系统具有不可还原性,代码表面记录了功能的实现,但并没有记录它为何如此设计的否定性历史——那些被抛弃的架构路线、对特定边缘场景的权衡,以及开发者在无数次迭代中建立的领域直觉。

当复刻者用极低的成本照搬了源码,他们实际上只是在时间轴上截取了一个静态的切片。一旦脱离了原作者的认知上下文,面对新的真实需求或技术环境的扰动,这些缺乏内部逻辑支撑的项目就会陷入停滞。给一个人开源项目和强大的 LLM,并不能自动赋予他将混沌转化为秩序的系统工程能力。

因此,在当下的语境里,是否开源不仅是一个策略,更是一个社会学意义上的筛选机制。在价值观上,我们依然选择与开源精神站在一起,是因为在这个复制品泛滥的系统里,我们需要一种高信噪比的信标。

开源本身就是一种信号的发射。我们清楚地知道,这个世界上绝大多数获取这些代码的人,只是在进行无效的搬运或拼凑。但我们依然敞开内部的结构,是为了跨越物理和组织的边界,去寻找那些真正具备同等认知能力的人。我们在用代码的品味和架构的取舍,去呼唤那些能够理解这些代码背后的逻辑前提、并能在同一个维度上继续创造的同伴。这或许就是在生成式 AI 削平了表面门槛的时代,开源作为一种精神契约,最无法被替代的现实意义。
01
Tefnut
23天前
习惯了桌面端 Fn 键一触即发的语音输入后,再看手机,只觉得厌烦。iOS 的沙盒机制导致语音必须跳转,这种人为的阻滞感生生切断了思维的连续性。
关联着高效语音输出的,其实是三件具体的事情:
第一是生产资料:女友送的 DJI MIC,曾被她笑称为玩具,在我看来却是器官。这不仅仅是因为便携,更关乎信噪比。人类的大脑处理噪声的效率极低,底噪本质上是在侵占思维的带宽,所以怎么提高信噪比都不过分。
第二是环境:我需要确信自己处于一个无人凝视、由我主宰的私密场域。这对于人类来说并不容易——作为社会性动物,我们的基因里往往深植着从众的本能。唯有在绝对的私密中,语言输出才能摆脱潜意识的自我审查,真正与自我意志对齐。
第三是自我的改造:云端的延迟还是会干扰心流,于是我转向了本地运行的 Parakeet 模型。这倒逼我改造自己:改用英语输入,只是因为 Parakeet 不支持中文;训练结构化口语,强迫自己在开口前完成逻辑编译与稳定输出。
我想,这正是 AI 时代的《A Room of One's Own》。Virginia Woolf 曾说创作需要物质基础和独立的房间。而在当下,为了获得我们所期待的那种产出,这些具体的条件依然发挥着不可替代的作用。
30