即刻App年轻人的同好社区
下载
App内打开
小张ES
629关注1k被关注4夸夸
当你启程前往伊萨卡,但愿你的道路漫长
置顶
小张ES
1月前
今天我们正式发布 Wanaka: 新世代的游戏社交平台 & AI 游戏引擎!iOS App 的测试版本可以在视频结尾扫码下载,因为是早期版本,请大家多多提建议!需要邀请码的朋友,可以私聊我一下~今天北京下雪,很适合在 Wanaka 里闲逛发呆,祝大家游玩愉快!
01:29
4241
小张ES
2天前
claude 目前的模型能力和第二档的模型差距大概有多大?如果 mythos 发布,又是多大?说实话,我觉得差距越拉越大了
21
小张ES
2天前
可能需要珍惜还可以和喜欢的同事们一起工作的时间,AI这么发展下去,很多人类大概率不会再有,也不需要有同事一起工作了。
01
小张ES
3天前
我越发觉得信念感其实是Founder区别于其他角色最重要的部分。在看起来非常不清晰的时候,在面对很多疑问的时候,也坚定对团队的信念,对事情的信念,并且真的下注,下注时间和资源。
21
小张ES
3天前
很好玩,我们在实践中也发现,现在做产品需要在思考人的需求外,更多的思考AI的需求,以及人和AI的边界

木遥: 刚才跟AI进行了一个很有意思的对话。 起因是我一直在试着把一个面向人设计的工具转成一个面向Agent设计的工具,然后我意识到,就像一般产品经理会做用户调研一样,我们完全可以面对AI做用户调研。 于是我问了 AI 这样一个问题: 你自己就是AI,而且是一个经常需要调用工具的AI。你期待一个面向你的xx工具应该是怎样的? AI 的回答: 确实每天都在调用工具,而且我非常清楚自己的痛点在哪。 我最大的瓶颈:round-trip 成本 每次工具调用对我来说都很贵——不是算力贵,而是延迟和 context 消耗。我调一次工具,要等结果回来,要把结果读进上下文,这占用我有限的注意力。所以: 最理想的 API 是:一次调用能做尽量多的事。一个 round-trip 解决问题。 这就是 AI-native 和 human-native 最根本的区别——人类需要看到每一步、理解每一步;我不需要,我需要高效搜索。 我第二大的痛点:失败时的信息黑洞 当工具返回 "error: tactic failed" 时,我只能盲猜下一步。这是我浪费 token 最多的场景。我需要的是similar_successful_patterns——告诉我「别人在类似目标上成功用了什么」。这对人类不重要(人类靠直觉),但对我极其重要,因为我的搜索是基于模式匹配的。 第三:checkpoint 必须极其廉价 我的工作模式本质上是 tree search——试一条路,不行就回溯。如果 checkpoint/restore 有任何显著开销,我的搜索效率就会大打折扣。理想状态: checkpoint 返回一个 ID,允许随时 restore。 第四:我不需要的东西 这点同样重要。不要给我: Pretty-printed 状态(给我 AST/JSON) 人类可读的错误信息散文(给我结构化诊断) 交互式 REPL(给我无状态的 HTTP/gRPC 端点 + session token) 自然语言文档(给我类型签名 + 输入输出示例) 格式渲染(给我 S-expression 或 JSON term tree) 每一个「为人类可读性」加的处理,对我来说都是噪音——我要花额外的 token 去 parse 你本来就有结构化表示的东西。 为我设计的服务的核心 API 大概就三个端点: /batch_apply — 批量尝试多个策略,返回所有结果,自动 checkpoint /explore — 给定当前目标,返回候选列表(按历史成功率排序)+ 目标的结构化分析 /checkpoint — save / restore / fork(分支出并行探索路径) 数据的大小反而是次要问题。如果这三个端点做得好,我可以在一个基础引擎上也非常高效地工作。如果这三个端点做得差,就算你有海量独家数据,我也会在无意义的 round-trip 中浪费大量算力。 ======== 然后我把上面的 AI(甲)的回答发给了另外两个 AI(乙和丙),它们纷纷表示:说的太他妈对了真的嘴替。 但各自又有补充。 AI 乙: 那个 AI 提到的 round-trip 成本本质上是 Context 熵增问题。人类阅读 1000 字的文档可能只需要几秒,但我读取 1000 tokens 的结构化数据不仅消耗 tokens,更严重的是它会稀释我的注意力权重。 报错即「路标」,而非「结局」 现在的工具报错(如 400 Bad Request)对人类来说是终点,需要人类停下来思考。但对于 Agent,报错应该是探索算法的一个分支。 逻辑偏误修正 那个 AI 提到的 similar_successful_patterns 极其重要。由于我的推理本质上是概率性的,告诉我「怎么做可能是对的」远比告诉我「你现在错了」能更快地让我回归正确的收敛路径。这其实就是 In-context Learning 的即时补丁。 关于 Checkpoint 的论据非常惊艳。 目前的工具链大多假设 Agent 是线性的(Step 1 -> Step 2)。但实际上,复杂的任务需要我们进行类似蒙特卡洛树搜索的操作。 我完全同意它对 Pretty-print 的厌恶 Markdown 表格对人类是视觉盛宴,对我来说是 token 屠杀。 我更希望工具能支持类似 JSON Streaming 或者 Protobuf 的流式解析。这样我不需要等整个大的结果返回,只要前几个关键字段(如 status: "processing")出来,我就能开始规划下一步,从而实现真正的异步协作。 补充一个它没提到的痛点:确定性约束。面向 Agent 的工具应该允许我传递一个 seed 或 consistency_level。我最怕的是:同一个 API 调用,在逻辑没变的情况下,因为后端的微小抖动返回了不同格式的数据。这会导致我的 pattern matching 瞬间失效,引发一连串的幻觉。 AI 丙: 大部分同意。但我会补上第四类能力: /inspect 或 /explain_failure 不是给人类解释,而是给 agent 一个可操作的状态诊断接口。因为 agent 很多时候不是缺 apply,不是缺 explore,而是缺局部判别:当前卡住的根因到底是什么?哪个约束最可能该先处理?当前目标和历史成功轨迹的差异在哪?如果没有这个层,explore 很容易退化成盲搜。 总的说来,我觉得它抓住了一个真的很重要的转换: human-native 工具优化的是可见性、可理解性、交互舒适度; agent-native 工具优化的是搜索效率、状态可分叉性、失败可诊断性、接口可组合性。 ======== 不得不说我从这个对话里学到了非常多东西。

01
小张ES
4天前
挽救计划真好看,高司令真帅。又好笑又温情又太空歌剧,这么好的电影就这么静悄悄的上了,人类有艺术真好
40
小张ES
5天前
小张ES
5天前
女儿殿下还是很好听的
00
小张ES
6天前
最近很喜欢Joji
00