即刻App年轻人的同好社区
下载
App内打开
Tefnut
448关注292被关注4夸夸
🧑‍🏫ENTP-T 6w7
🗂在和遗忘做抗争
💻CS PhD/Al4Science->Structural Biology
Tefnut
2天前
习惯了桌面端 Fn 键一触即发的语音输入后,再看手机,只觉得厌烦。iOS 的沙盒机制导致语音必须跳转,这种人为的阻滞感生生切断了思维的连续性。
关联着高效语音输出的,其实是三件具体的事情:
第一是生产资料:女友送的 DJI MIC,曾被她笑称为玩具,在我看来却是器官。这不仅仅是因为便携,更关乎信噪比。人类的大脑处理噪声的效率极低,底噪本质上是在侵占思维的带宽,所以怎么提高信噪比都不过分。
第二是环境:我需要确信自己处于一个无人凝视、由我主宰的私密场域。这对于人类来说并不容易——作为社会性动物,我们的基因里往往深植着从众的本能。唯有在绝对的私密中,语言输出才能摆脱潜意识的自我审查,真正与自我意志对齐。
第三是自我的改造:云端的延迟还是会干扰心流,于是我转向了本地运行的 Parakeet 模型。这倒逼我改造自己:改用英语输入,只是因为 Parakeet 不支持中文;训练结构化口语,强迫自己在开口前完成逻辑编译与稳定输出。
我想,这正是 AI 时代的《A Room of One's Own》。Virginia Woolf 曾说创作需要物质基础和独立的房间。而在当下,为了获得我们所期待的那种产出,这些具体的条件依然发挥着不可替代的作用。
10
Tefnut
2天前
openclaw 里跟 MiniMax M2.5 High Speed 以及 GPT Codex 5.3 交流的时候,我会明显感觉更舒服一些。于是自然会问:为什么跟人一起工作时,很少有这种顺畅感?

问题并不复杂,本质还是人类输出的带宽太低。人类生成 token 的速度很慢,多模态信息的表达成本更高。要输出一段完整、详尽、且不产生歧义的文本,对人来说代价极大。正因为如此,人类才习惯用对话的形式沟通——不是因为对话本身更优,而是因为一次性表达清楚太难。

所谓对话,其实是在压缩信息的前提下,通过多次往返不断修正彼此理解。这个机制隐含着一个前提:你默认对方脑中已经存在一个假设,而且这个假设与你的差距不会太大,否则沟通根本无法展开。一旦假设空间偏离太多,来回互动也只是在增加摩擦。

在过去,单次少信息、高频率的交流方式是相对高效的,因为人的表达能力决定了只能这样。但在 LLM 出现之后,这个约束被改变了。高密度、完整、结构化的单次输出变成低成本行为,那么原有的沟通范式就不再是唯一选择。

进一步看,在大部分组织结构中,其实并不需要大量双向的信息流动。很多信息管道完全可以改成单向。关键不在于互动频率,而在于单向传递时是否提供了完整、无歧义的信息。一旦信息本身足够完整,所谓的“沟通带宽问题”就不再是核心矛盾。
00
Tefnut
3天前
OpenClaw 用久了,便觉得每个成年人都该好好用一下它。既然同一模型的智能水平是相对恒定的,那它就是一面稳定的镜子,照出的其实是我们自己:我们是否具备清晰的沟通力,是否真有能力带领团队拿结果。
当好 Agent 的领导其实并不容易。所谓领导,剥离掉“玩平衡术”的部分,本质无非就是给资源、给经验、担责任。
AI 也是同理:你是否舍得为高级模型的 Tokens 投入资源?你是否有能力将任务拆解清晰,写出精准的文档让 Agent 照章执行?你是否有能力评估输出,并给出准确反馈帮助它迭代?尤其是当它犯错时,你能不能控制住脾气,不气急败坏,而是梳理问题、总结经验,最终修正闭环?
00
Tefnut
3天前
有一类incremental的工作我很喜欢,就是给整个pipeline加速的,效率的提升才让很多所谓有学术价值的想法有了实现的可能。

对于写代码来说也是,我支持把所有东西用Rust重写一遍。
00
Tefnut
6天前
一夜之间draw.io和excalidraw都有了官方的MCP server,然而LLM的空间感知能力仍然很差。
00
Tefnut
7天前
要过年了天塌了被scoop了
00