即刻App年轻人的同好社区
下载
App内打开
苍斯基
994关注2k被关注19夸夸
*SSI国际清酒唎酒师;
*前鸡尾酒吧股东;
*前美食聚乐部合伙人;
*牛仔裤撕裂者
*喜欢交朋友
*主攻吃喝玩
苍斯基
1天前
Claude有一种特别的气质。
别的Agent喜欢和你絮絮叨叨一堆,Claude经常是懒得和你废话说完就跑。
20
苍斯基
1天前
原来Vibe Coding也会力竭……这几天除了吃饭睡觉都在vibe coding,终于力竭了……我要出门社交了!
20
苍斯基
2天前
用了两天Claude,感觉它虽然很聪明,但是莫名其妙的bug挺多的(我主要用cowork)……比如我只用中文和它对话,但是它今天用了中日英韩四种语言回答我,甚至一次回答里每段一种语言,好家伙。
70
苍斯基
3天前
update到最新版以后,可以在cc领宠物了。
00
苍斯基
3天前

李惠子Huizi: 写的很好: 一文了解 Anthropic 的 Claude Code 源码:为什么它就是比别人好用? https://x.com/YukerX/status/2038959908968919297 1. Claude Code 的做法: 你让他直接用你的电脑——但你给他配了一套极其精密的安检系统。他能做什么、不能做什么、哪些操作需要你点头、哪些可以自己来、甚至他想用 rm -rf 都要经过9层审查才能执行。 为什么 Anthropic 选了最难的那条路? 因为只有这样,AI 才能用你的终端、你的环境、你的配置来干活——这才是"真正帮你写代码",而不是"在一个干净房间里给你写一段代码然后复制过来"。 但代价是什么?他们为此写了 51 万行代码。 2. 你以为的 Claude Code vs 实际的 Claude Code 大多数人以为 AI 编程工具是这样的: 用户输入 → 调用 LLM API → 返回结果 → 显示给用户 Claude Code 实际是这样的: 用户输入 → 动态组装 7 层系统提示词 → 注入 Git 状态、项目约定、历史记忆 → 42 个工具各自附带使用手册 → LLM 决定使用哪个工具 → 9 层安全审查(AST 解析、ML 分类器、沙箱检查...) → 权限竞争解析(本地键盘 / IDE / Hook / AI 分类器 同时竞争) → 200ms 防误触延迟 → 执行工具 → 结果流式返回 → 上下文接近极限?→ 三层压缩(微压缩 → 自动压缩 → 完全压缩) → 需要并行?→ 生成子 Agent 蜂群 → 循环直到任务完成 3. 第一个秘密:提示词不是写出来的,是"拼装"出来的 Anthropic 把提示词当成了编译器的输出来优化。静态部分是"编译后的二进制",动态部分是"运行时参数"。这样做的好处是: - 省钱:静态部分走缓存,不重复计费 - 快:缓存命中直接跳过这些 token 的处理 - 灵活:动态部分让每次对话都能感知当前环境 每个工具都有独立的"使用手册" 更让我震惊的是:每个工具目录下都有一个 prompt.ts 文件——这是专门写给 LLM 看的使用手册。这就是为什么 Claude Code 从不会擅自 git push --force,而某些工具会——不是模型更聪明,是提示词里已经把规矩讲清楚了。而且 Anthropic 内部版本和你用的不一样 代码里大量出现这样的分支: 他们的版本有更详细的代码风格指引("不写注释除非 WHY 不明显")、更激进的输出策略("倒金字塔写作法"),以及一些仍在 A/B 测试的实验功能(Verification Agent、Explore & Plan Agent)。这说明 Anthropic 自己就是 Claude Code 最大的用户。他们在用自己的产品来开发自己的产品。 4. 第二个秘密:42个工具,但你只看到了冰山一角 这就是为什么 Claude Code 不会像某些工具那样"凭空写一段代码覆盖你的文件"——它被强制要求先理解再修改。 5. 第三个秘密:记忆系统——为什么它能"记住你" 用过 Claude Code 的人都有一个感受:它好像真的认识你。Claude Code 用 另一个 AI(Claude Sonnet)来决定"哪些记忆和当前对话相关"。不是关键词匹配,不是向量搜索——是让一个小模型快速扫描所有记忆文件的标题和描述,选出最多 5 个最相关的,然后把它们的完整内容注入到当前对话的上下文中。 策略是"精确度优先于召回率" ——宁可漏掉一个可能有用的记忆,也不塞进一个不相关的记忆污染上下文。 KAIROS 模式:夜间"做梦" AI 在"睡觉"的时候整理记忆。 这已经不是工程了,这是仿生学。 6. 第五个秘密:它不是一个 Agent,是一群 当你让 Claude Code 做一个复杂任务时,它可能悄悄做了这件事:它生成了一个子 Agent。而且子 Agent 有严格的"自我意识"注入,防止它递归生成更多子 Agent:这段代码在说:"你是一个工人,不是经理。别想着再雇人,自己干活。" 在协调器模式下,Claude Code 变成一个纯粹的任务编排者,自己不干活,只分配。 Prompt Cache 的极致优化,这是一个每次调用节省几美分的优化,但在大规模使用下,能省下大量成本。 7. 第六个秘密:三层压缩,让对话"永不超限" 所有 LLM 都有上下文窗口限制。对话越长,历史消息越多,最终一定会超出限制。 Claude Code 为此设计了三层压缩: 压缩后的 token 预算: • 文件恢复:50,000 tokens • 每个文件上限:5,000 tokens • 技能内容:25,000 tokens 这些数字不是拍脑袋定的——它们是在"保留足够上下文继续工作"和"腾出足够空间接收新消息"之间的平衡点。 8. 读完这份源码,我学到了什么 51 万行代码里,真正调用 LLM API 的部分可能不到 5%。其余 95% 是什么? • 安全检查(18 个文件只为一个 BashTool) • 权限系统(allow/deny/ask/passthrough 四态决策) • 上下文管理(三层压缩 + AI 记忆检索) • 错误恢复(熔断器、指数退避、Transcript 持久化) • 多 Agent 协调(蜂群编排 + 邮箱通信) • UI 交互(140 个 React 组件 + IDE Bridge) • 性能优化(prompt cache 稳定性 + 启动时并行预取) 如果你正在做 AI Agent 产品,这才是你真正要解决的问题。不是模型够不够聪明,是你的脚手架够不够结实。 好的提示词工程是系统工程。 为失败而设计。 Anthropic 把 Claude Code 当操作系统在做。42 个工具 = 系统调用 权限系统 = 用户权限管理 技能系统 = 应用商店 MCP 协议 = 设备驱动 Agent 蜂群 = 进程管理 上下文压缩 = 内存管理 Transcript 持久化 = 文件系统 这不是一个"聊天机器人加几个工具",这是一个以 LLM 为内核的操作系统。

00
苍斯基
3天前
下方——每一天的我。
20
苍斯基
3天前
还是充了Claude Max,聊一次看一次limits。
130
苍斯基
4天前
走之前不能免俗上塔看了看,这个季节全城开满樱花还挺漂亮的,应该会再来大邱。
60
苍斯基
5天前
还是美术馆好看。
韩国人教育确实下血本,博物馆免费,美术馆门票1000韩元(4.5元人民币)。
展览质量这么高,韩国人确实有东西。
30