即刻App年轻人的同好社区
下载
App内打开
凯文冲冲冲
389关注241被关注0夸夸
来到这世上,就想多看看,多聊聊。
凯文冲冲冲
08:50
几个Claude Code的使用技巧。

虽然一直在使用 Claude Code 开发软件,随着使用得越来越多,也看到大家分享的技巧越来越多。今天看到一些分享,突然发现其实有些技巧还蛮有用的,但平时自己在开发或者实现功能时,反而用得比较少。这里有几个技巧实际上相对来说蛮有用,可以在日常开发中尽量使用,提高开发效率。

第一个技巧:双击 ESC

- 当我们让 Claude Code 执行某个任务时,和它对话时可能会说错话、给错指令,或者对它的回答不满意。它会以流式方式告诉你正在做什么。如果发现它好像走错了,很多时候我们只会单击一次 ESC 键,这只是暂停当前工作,不能让它“时光倒流”。

- 如果双击 ESC 键,它实际上会回到这次对话之前的上一次对话状态,这样你就可以重新组织语言,让它按照你的方式开发新的功能。

- 需要注意的是,如果它已经修改了一些代码文件,需要通过 git 的方式回退(reset),恢复文件的初始状态。


因为双击 ESC 键,它仅仅只是回退到对话历史记录的上一次,这样就不会把取消的那一次对话,直接送到 Claude Code 的上下文当中。这是第一个技巧。

第二个技巧,大家用的相对会比较少。就是有些时候我们在使用时,需要去执行一些终端的命令。那么,你就可以通过感叹号,然后执行一个命令的方式,直接在当前的 Claude Code 窗口运行这个命令,不用像之前一样,需要重新打开一个终端的窗口,然后在那边运行命令。那边如果有了一些错误,你可能还要再复制回来。这样的话,就很容易让你在运行完命令后,直接分析这次测试失败的原因是什么,然后可以让他来修复代码。

第三个技巧是节约 token 的技巧。我们平时都知道,当你在使用 Claude Code 开发一个功能的时候,你可以通过 `context` 命令去查看当前送给模型的上下文包含了什么内容,然后你可以去调优。但是我们知道,当我们让 Claude Code 在做一些事情的时候,有很多时候有些文件是不需要被搜索和读到上下文当中的。比如说,你生成的一些文件,构建出来的一些文件,比如 `build` 里面的文件,`dist` 里面的文件,甚至你安装的一些依赖包。

甚至是对于一些包含敏感信息的文件,比如包含环境变量的文件,或者像日志文件这类实际上不需要让 Claude Code 去搜索或读取到上下文中来回答用户问题的文件,你可以通过添加一个 `.claudeignore` 文件来配置。它非常像 `.gitignore` 文件,你可以在里面配置你需要忽略的目录或文件。配置在这个文件里的内容,无论是目录还是文件,都不会被 Claude Code 加载到它的上下文当中。

最后一个技巧是,Claude Code 的指令有点像管道,可以通过链式调用的方式组合起来。举个简单的例子:当我们在开发一个新功能时,可以先用 `/plan` 命令说“我要添加一个购物车的功能”,等它生成计划后,再用它创建一个分支。接着在这个新分支上,按照原定计划逐步实现功能,然后进行测试。测试时,可以通过 `!npm test` 的方式来运行测试。最后,可以通过 `/review` 命令进行代码审查。审查通过后,再通过 `/commit` 命令提交代码。

最后,可以通过 `/commit` 命令来提交代码,然后通过 `git push` 将其推送到远程仓库。从这个流程可以看出,它实际上是把 Cloud Code 的一些预先定义的命令、开发新功能的工作流、进行代码审查的命令,以及你自己要执行的自定义命令,全部整合在了一次用户提示中,而不是拆分成多个步骤。如果你能善用这些技巧,将能显著提升你在某些方面的软件开发效率。
00
凯文冲冲冲
2天前
Claude Code作者Boris访谈中说到,自从 opus 4.5 以来,他再也没写过一行代码了。

今天主要聊一下最近关于Claude Code作者Boris的一次访谈。看完他的采访视频后,我觉得有一些信息非常有启发性。

首先,Boris提到自从他开发出Claude Code之后,从Oppo 4.5版本开始,Claude Code的90%甚至接近100%的代码,都是由Claude Code自己生成的。也就是说,它已经达到了自我生成的阶段。由于 Claude Code已经完全用Claude Code来生成,这也导致所有代码都被反复重写过无数次。现在你看到的任何一个版本,都已经不是六个月前的任何一行代码了,所以迭代速度非常快。

这也解释了为什么以前我升级Claude Code时,可能很久才需要更新一次版本,但现在只要两三天不更新,等你再更新时,已经迭代了十几二十个小版本,速度非常快。

另外一个有启发的点是,关于什么是AGI,Boris以及Anthropic团队对AGI的理解也很值得关注。

AGI的实现路径,应该是先教会模型学习编程,然后再教会它使用工具,最后再教它使用电脑。这样子的话,就能够真正实现AGI,但同时又能够保证它的安全性。因为对于编程来讲,你是可以去限制它的,它是比较容易去限制的,就像是现在我们把程序放在一个完全独立的沙盒里面跑一样。你是很容易地限制它的网络、限制它的数据流通等方面,或者是限制它的一些权限的。所以这是Anthropic认为实现AGI最正确的一条路径,所以他们一直押注在编程上面。

关于使用工具,是很神奇的一点。他提到,之前在刚刚发布Claude Code、模型刚学会使用工具的时候,他就尝试了用集成的Bash工具。一旦集成了Bash工具,这是一个最纯粹的、最原始也最强大的一个模型了。因为Bash基本上能做任何事情,而且它长期以来已经积累了非常多的数据,准确度非常高。它能够写文件、读文件,能够执行各种Bash的命令来安装各种包,然后能够运行程序。所以模型加上Bash,就已经是一个非常强大的Agent了。

所以,当时在刚刚发布完工具以后,他有一天就集成了Bash工具,让模型来使用这个Bash工具。这时,他就随便问了一个问题,比如“我正在听什么音乐?”,他发现模型竟然能够写出一段脚本,然后去操纵他的Mac,查到他正在播放的是什么音乐。所以他认为,那是他第一个瞬间感觉到“这就是AGI”的时刻,一个“Aha moment”。

第三点启发是,我们经常说需要在`claudecode.md`文件里写上一些需要让模型关注的事情。但他自己的文件里,全部就两行,主要是针对PR的。他把大部分工程上的要求,可能都写到了一个整个团队的`claudecode.md`文件里。但对他个人的`claudecode.md`文件,实际上就两行:

1. 提交了PR就能够自动合并。

2. 提交了PR以后,它能够直接发布到内部的一些通讯工具,方便那边的同事快速审批,这样他就不用一直等待或者被卡住。


另外一点,我觉得这对于所有人来说可能都是比较愿意听到的:哪怕他是Claude Code 的创建者,哪怕他用的是最强大的模型Claude Opus,但他发现他还是需要不断地学习。

因为有时候他发现在做事时,由于思维惯性,还是会习惯性地用传统的软件开发方式去处理。他的思维有时还停留在六个月前。他在这篇访谈中反复提到“6个月”这个时间点,例如模型大概每6个月就会发生一次巨大的变化。所以,很多工作你做了,实际上6个月后可能会失效。这也有可能是他们内部模型发生巨大变化的一个迭代周期(目前是6个月,这是我猜测的)。

上次也讲到,未来可能没有“软件工程师”这种特定角色了,因为每个人都是一个“建造者”(builder),都能够创建任何产品和软件。

那么,对于技术人来说,最重要的技能是什么?

1. **保持初心**:要拥有“初学者心态”(beginner’s mindset),保持好奇,持续学习。

2. **保持谦逊**:因为模型会成长发展到远远超出你的地步,你在它面前可能会感到非常沮丧。这时就需要保持谦逊。接受自己不懂。

3. **从错误中学习**:我隐约觉得,他们现在内部开发过程中,都不是让系统完全自动化运行,而是在不断迭代。你发现错误,就能返回来重新修改。以这样的方式去构建软件,才是正确的。


另外,他们最后还提到,因为现在大家比较经常使用“计划模式”(Plan Mode)。用户每次让模型去构建的软件描述都太简单了,只有一两句话。但整个软件其实包含很多细节,包括用户流程、数据存储以及一些特殊需求。这些细节都隐藏在需求里,所以他们才开发出这个“计划模式”,希望用户在使用模型开发软件之前,能够先构思好方案。

但他自己也提出,这个模式未来可能不再需要了。在后续的模型迭代中,模型自己可能就能处理得很好,用户就不需要在模型和计划模式之间来回沟通了。我对这点还蛮期待的,但不太确定:如果很多细节都由模型按照其最佳实践自行实现,会不会丧失掉一些个性化的需求?

最后他也提到,自Claude Code 发布以来,基本上Anthropic(的功能)让每个人的效率提升了150%。结合我之前看到的,昆仑万维(国内一家公司)对其所有研发人员的要求是,无论从CTO到初级程序员,使用这类工具的效率提升目标都要达到50%,这是一个全员提升,非常吓人的一个数字。

他提到,自从有了 Claude Code 以来,他基本上已经把所有开发工具都卸载掉了,只保留了 Claude Code 这个终端工具。他自己也没有再亲手写过一行代码。

未来的开发就应该是这样。
01
凯文冲冲冲
3天前
从白宫封锁 Claude 来看达里奥这个人

今天看到一篇报道,说美国总统特朗普开始在媒体上发布消息,表示要封锁整个Claude模型,禁止在美国军方和政府项目中使用所有Claude的模型。

要知道,在这之前,去年美国政府曾直接给Anthropic一个两亿美元的订单,原因是当时Anthropic是第一家通过美国军方和政府综合评估,被认为是最强大的AI,所以才会正式立项采购这家公司的AI模型Claude,作为军事和政府内部项目来使用。

但今天的这篇文章中,特朗普宣称不再打算在军事和政府项目中全面使用Anthropic的Claude模型,只给了6个月的过渡期,甚至不排除接下来任何与美国军方和政府项目有合作关系的公司和企业,都不能再使用Claude。这和过去几年美国封锁中国的手段一模一样。

从这件事情可以看出,达里奥,也就是Anthropic的CEO,其实是个挺有原则的人,所以我不是特别喜欢他。因为从早几年开始,他一直都在各种封锁中国。

因为他坚持“美国优先”,所以他不能让中国在国家战略级别上超越美国。所以从一开始,他就封锁芯片。虽然给出了一些非常搞笑、甚至不存在的捏造理由,但他就是公开地去推行这种“美国优先”的政策——不给你中国用。

到后面,除了封锁芯片,还封锁各个企业。如果你的IP来自这些企业,而这些企业有超过50%的份额属于中资企业,那么你也不能用。

他做了很多事情,从我们的角度来看,都属于“美国优先”。但这不难理解,毕竟他在美国,每个人都有自己的立场。只是很多时候我们不太喜欢他的一个原因是:即使封锁,他给出的理由也非常牵强。甚至在早前,还说什么用龙虾运芯片这种非常搞笑的理由,就有点过度了。

但是,你回过头来看,包括这件事情来看,实际上他这一次背景是:原先在去年,其实OpenAI、[Anthropic还有x.ai](xn--Anthropicxx-6e1xk499a.ai),大家都已经跟美国军方有过合作了。最终,只有当时的合同上有两条条款。

合同上写得非常清楚,主要有两条条款:

1. 合作可以,但首先不能用AI技术去大规模监控普通的美国群众,即平民。

2. 不能用AI技术用于具有全自动化的军事武器,这是非常危险的事情。


之前,大家都觉得这是OK的。但起因是在今年2月份,美国军方重新跟这三家公司谈合同时,增加了一个条款。该条款规定:只要军方根据现行法律裁定,其使用AI技术的目的合法,就能使用该技术。作为模型提供商,你不能设置任何限制。

对此,OpenAI和马斯克的x.ai没有表示任何异议,但在达里奥(Anthropic)这边,他就“炸了”。他无法接受,他认为由军方来裁定其行为(例如,现在收集所有平民数据、监控平民以及监听通讯记录)是合法的,这本身就不对。

要知道,他这次反应之所以这么大,是因为在2020年,他之所以从OpenAI出来,就是因为他当时坚信,AI必须遵守一个更优先的原则,那就是“人类优先”。不能利用AI来超越人类的伦理。

所以,他当时的主张和奥特曼是相反的。因为当时奥特曼是商业优先,他的策略有点像是先半放弃安全状态,把商业做起来,再去考虑安全。但达里奥不认同,他的观念是安全必须优先。他认为应该先控制住,后面再慢慢放开,而不是先放开再收回来。这是相反的思路,所以他在2020年离开OpenAI,直接成立了Anthropic这家公司。

这也就是为什么,现在只有他能非常强硬地去和美国军方对抗,表示:“我不同意你这么来使用我这个世界上最领先的模型,用于这些不合理的目的。”从这点上看,我还是很尊重他的,因为他有非常强的原则性,能够坚持自己相信的信仰和理念。

另外一个不得不提的点是,他实际上还是一个技术优先者。他认为技术的领先是至关重要的。有人解读过他为何如此:这不仅仅是一般的技术偏好,而是因为在2000年初,他父亲得了一场重病,当时没有技术可以医治。他父亲去世后,他发现因为技术的突破,这个病的治愈率从大约50%上升到了90%。这件事对他影响非常大,所以他坚信技术必须优先。

如果我们回过头来看达里奥在公众面前所展现的人格,他实际上秉持着三个优先原则:

1. 美国优先

2. 人类优先

3. 技术优先
10
凯文冲冲冲
4月前
Kimi K2能否替代Claude?UI惊艳但功能尚不完整

这个周末属于Kimi K2 thinking 模型,一时间感觉它变成了国产第一模型。主要是图1这张图,第一排的各项测评能力都超过了GPT和Claude,但是第二排的代码能力上,略微低于GPT和Claude,但是基本追平了。

所以第一时间我也下载了Kimi CLI 来对比下Claude Code。我基本上每天都在用Claude Code,虽然Kimi K2 Thinking也可以套在Claude Code上,但是为了避免有模型跟agent 应用之间的不匹配,我还是下载了Kimi CLI来使用Kimi K2 Thinking 模型,一般自家的应用会对自家的模型有一定的调整和优化。

我一般测试都是从困难到容易,我先是测试了一个web 应用,用来从某个有名的财经网站爬取我关注的财经博主的帖子来进行公司的分析(难点在于登录和反爬机制),虽然Claude code也没做出来,但是Kimi K2 Thinking 直接给了我这样一个页面。图2.

那我只能退而求其次,让它做一个简单的。给出10以内的加减法,帮助我家二宝熟练掌握计算。Kimi 直接出来的界面 - 图3还不错。但是接下来让Kimi 对接qwen ocr 模型,来识别黑板上的数字自动判断错对,Kimi Thinking 来回修改了两次,都没有改好。最后还是让Claude code来修改了。

我的感觉是,Kimi k2 thinking + Kimi CLI 目前实践下来综合代码能力还是比Claude Code差不少。但是看别人的实践,感觉还挺能打?会不会是我的提示词问题,那么就复制一段“卡尔的AI沃兹”的构建mac web os的提示词,直接扔个kimi 2 thinking 看看。图4.

从前端页面看,确实挺清爽的,感觉也符合提示词有的功能,比如文本编辑器、计算器等,但是很多功能其实根本不是完整的,只是有这个功能而已,比如文本编辑器,只是打开一个文本编辑界面,然后输入文本,仅此而已,不能保存,甚至没法调整文本编辑器的显示界面。图5. (右边的滚动条决定了输入的区域大小)。

所以想要达到让小白用户言出法随的境地,还有不远的距离,但是从前端的实现UI效果来看,我看还是不错的。这说明前端的构建能力已经达到了可用的地步。
10
凯文冲冲冲
4月前
通过DeepSeek R1了解推理模型的前世今生07

这篇算是完结篇了,一起来看下DeepSeek R1 是通过哪几步来完成的,总共就5步,从图片上就很容易理解整个过程。这里需要注意的是,前面几步都是为了合理生成高质量的推理数据,毕竟R1 是一个推理模型。非推理数据的准备相对容易一点,直接使用DeepSeek V3 base 模型来生成就可以。

1. 首先从 DeepSeek V3 Base 通过冷启动SFT, 用到的数据是5000条高质量的人工准备的推理数据。得到DeepSeek V3-1 模型。
2. 然后DeepSeek V3-1 直接通过RL 得到 DeepSeek V3-2.
3. 直接使用DeepSeek V3-2 来生成候选推理数据,然后过滤出来60万条推理数据。
4. 用DeepSeek V3 Base 来生成20 万非推理数据。
5. 基于这里生成的80万条训练数据,从DeepSeek V3 Base 开始,先进行SFT, 然后再进行RL,得到最终的DeepSeek R1.
00
凯文冲冲冲
4月前
为什么 Go 语言在 AI 编程中意外脱颖而出

现在大家都开始越用越多的vibe coding,但是每个模型都有其主观性,因为训练数据的缘故。但是有一部分其实是相互重叠的,那就是哪部分的训练数据是重叠的。

在vibe coding中,其实可以发现,不管什么模型,其实在特定的几种语言上效果是最好的,出错也很少。而业界内也基本上决出了前三名。

Typescript/Javascript, Python 和Golang。我觉得前两者大家都不意外,但是最后反而是go 语言,我还是比较诧异的。但是看到大家的反馈,基本上go 语言本身是一门比较简单的语言,资深工程师和初级工程师如果按照模板写,其实相差不大。

当然,其他非类型语言,如果为了让AI 表现的更好,一般都是加上一个提示词,“禁止使用泛型”
10
凯文冲冲冲
4月前
一个有意思的观察,大家都在降级使用 Sonnet 4.0

Augument code 最近发布了一个blog,里面揭示了一个观察,大家有往从 Sonnet 4.5 Sonnet 4.0 降级使用的趋势。图1.

这个挺有意思的,理论上 Sonnet 4.5 的能力肯定是比 Sonnet 4.0 要强的,但是大家并没有一边倒的都在使用 Sonnet 4.5, 而是有选择性的还在使用 Sonnet 4.0。 这让我想要了解一下到时它们是什么差异导致了这个现象。

第一反应是价格吗?但是查了下发现 Sonnet 4.5 Sonnet 4.0 的价格其实都是一样的,都是 $3 百万输入, $15 百万输出。那就是它们能力上或者对不同任务的处理上的差异了。augument 继续给出了几个对比,其实就是一个结论。

Sonnet 4.5 重推理,少操作。而 Sonnet 4.0 则是推理没有那么深入,但是倾向于先执行。这里的操作执行指的都是调用工具。所以 4.5 消耗的 token 4.0 要多25%。 但是由于深思熟虑了,也导致了执行的工具次数平均比4.0 少。

所以由于这个特性,业内也是倾向于,使用 Sonnet 4.5 来做架构设计、长上下文(包括多文件)的理解和编辑,最好是拆分成很多子任务后,直接让 Sonnet 4.0 完成,4.0 执行的更加高效和输出更加稳定(它尽量不思考)
42
凯文冲冲冲
4月前
关于 Andrej Karpathy 最近关于 agent 的演讲都说了什么?

这周估计最火热的话题就是 Andrej Karpathy 关于 agent 的演讲了,大概两个小时。我看了下各方解读,也看了原文稿。有几点是很有启发性的。

一。首先 agent 的十年才刚刚开始,不是已经 agent 成熟了,离真正有用(他定义的有用是把 agent 当做一个你愿意雇佣的员工来看待和合作),还有很长的距离。它需要的是,更高的智能,更好的多模态能力,以及更强的调用工具的能力。

二。为什么 agent 还需要发展10年才能够真正胜任人类的工作?因为它还不会自主学习,也记不住你曾经吩咐过它做的事情(不要来说 memory,有限制的,模型本身也有上下文的限制)。这个在我看来反而是好消息,大家不要有 fomo。另一个从投资角度看,是不是 AI 应用的发展还需要好几年?

三。人类不主要依赖于强化学习。看到这里,我停顿了好久。按照 ak 给的例子,作为生物体,一些运动的能力更像是一种本能(比如举的例子说斑马出生几分钟就会跑),这是刻在基因里面的程序,不需要学习和训练。而我们人类在后天学习的部分,确实好像也没有很多是需要强化学习的方式的(需要奖励),或者说计算有奖励(题海战术带来的高分算不算)不是促进学习的唯一动力。

此外,强化学习如果了解DeepSeek的训练逻辑的话,它看重结果奖励,而不是过程奖励。但是人类会复盘,复盘的就是过程,每一步应该怎么优化,有没有多余的步骤。我们都说AI从训练开始就在模仿人,后面表现也是把它当人看,但是思考的路径越来越不像人。

四。之前大家都说高质量的数据已经用完了,那么就只能靠模型来生成数据来训练一个更强大的自己。AK却认为这个是模型坍塌问题,用自己的生成的数据来训练另一个自己,会导致模型的输出的分布越来越不具备多样性,越来越窄,从而造成了LLM 写作上的千篇一律,俗话说的AI 味。

五。关于教育,AK 真的是力行在教育上践行AI的实践。从理解LLM 到最近写出的最小的、100美金就可以训练出来的nanochat 都是遵循他想要做的事情,一个是保持一个最小原理,把核心信息都讲清楚理解透彻,剩下的都是效率工程。另一个是,把学习从有用变成有趣,确实我们这几代人,学习都是靠毅力,因为学习很苦,一点意思都没有。不否则有需要使用到毅力的时候,但是如果每项学习都很苦,很难走的远、走的深。
03
凯文冲冲冲
4月前
通过DeepSeek R1了解推理模型的前世今生06

今天先来学习下多头注意力机制。

首先先来看下,什么是注意力机制?所谓注意力机制,就是看一个词(token)跟句子里其它的词关系如何,哪个更相近。对于句子 The cat sat on the mat 来说,当对词 cat 进行注意力机制时,那么cat 就会分别对句子里的The, sat, on, the, mat 都会进行下检查,看看哪个词跟它关系更近。

毫无疑问,那肯定是 sat mat 对于cat 来说,关系更加紧密一点。那么多头注意力机制实际上是指多个维度。词与词的关系不仅仅只是一种,它们可以有语法关系(主谓),也可以有语义关系,甚至有位置关系(前后)等,所以多头注意力机制就是关注词关系的不同方向。

而在注意力机制中,往往还有一个概念不好理解,那就是Q (Query) ,K(Key), V(Value) 矩阵。包括我们常说的KV 缓存减少费用是怎么回事? 假设模型输入 The cat sat on the , 那么训练的时候需要让模型预测下一个词是 mat,那么对于输入的 The cat sat on the 每个词都会单独一个词一个注意力头一组QKV 矩阵。

而对于每个词来说,什么是Q, K, V? Q 其实是代表着对于这个词,我想要知道什么信息(从哪个视角来了解这个词),而K则表示,对于这个词,它大概是什么。而V 则是这个词具体表示的内容。还是拿上面的句子举例。

cat 的K 表示这是一个名词,V 则表示内容是一只猫。那么Q呢,如果一个注意力头表示一个视角,Q可能是cat 在这个句子中要找到可以补充它的信息,Q可以是它在做什么?Q也可以是它在哪里等,这样就可以得到cat 跟句子里其它的词的K 进行点积(相似度)看看谁跟它最相关,可以补充什么方面的信息,图1.
01
凯文冲冲冲
4月前
怎么让 Claude Code 不要老问我要不要调用某个工具了?

每次在使用 Claude Code 进行开发项目的时候,不管是 cc 自动执行 bash 命令,还是调用 mcp 工具,它都要问下你是否允许这个工具调用。图1. 特别是 cc 只提供了一些通用的工具,比如 WebFetch, 但是你通过这个 WebFetch 工具来访问不同 domain 的网页,比如 sina.com, github.com 它都要来问你一次,bash 工具也是一样的道理,这个就很打断我们需要的自动化工作流了,导致效率很低。

那么应该怎么做呢?其中一种方式是直接打开危险模式,就是启动 claude 的时候带上, "claude --dangerously-skip-permissions", 但是这个也太危险了,连官方都建议打开这个模式的时候,最好是放到一个 locked-down 的环境下面运行,就是把本地操作系统删除了也没有关系,不要让它接触这个 locked-down 环境的外面。

另一个肯定就是在当前项目的 .claude/settings-local.json 文件进行 permission 的配置,先提前允许你需要的工具,大多数项目都是一致的。图2. 但是我们肯定不会这样去配置每个域名,每个 bash 命令等。

我先去查了一下,看看 Claude Code 到底是支持哪些内置工具,神奇的是,没有单独的页面罗列这个,只能从不同的来源整理一下。Claude Code 内置的工具大概有,

文件操作工具: - Read - 读取文件内容 - Write - 创建或覆盖文件 - Edit - 精确编辑文件(搜索替换) - Glob - 文件模式匹配(查找文件) - Grep - 搜索文件内容(ripgrep)

Agent 工具:- Task - 启动 subagent 来处理请求。

命令行工具:- Bash - 执行各种 shell 命令。

网络工具:- WebSearch - 搜索网页, - WebFetch - 获取网页内容。

而我们需要做的是,直接先把这些工具直接配置到 permissions.allow 字段当做,表明使用这些工具的时候不要询问用户了。但是 claude code 的内置工具搞定了,但是 mcp 工具还是会一直询问,不管你是配置成 mcp__* 还是 mcp__*__* 或者是 mcp__chrome-devtools__* 其实都没有作用。而后面发现,其实正确的配置方式是 mcp__chrome-devtools 就可以了,没有后面的 * 匹配符号。
01