即刻App年轻人的同好社区
下载
App内打开
coy_
69关注42被关注0夸夸
奇奇怪怪的思考
coy_
19天前

ChampionCheung: 我用 OpenClaw + Kimi + Discord 搭了个 24h 在线的个人 AI Agent,完全免费 我花了 8 个月,从零开始构建自己的「个人操作系统」。 最开始是一个 Next.js + Python 的 Web App(FutureMe),后来发现——真正有价值的不是代码,而是我对自己的理解结构。 于是我把这些理解提炼成了一套 Markdown 文件,用 OpenClaw 把它变成了一个住在 Discord 里、24 小时在线、了解我是谁的 AI Agent。 今天分享一下这段旅程的思路和踩坑经验👇 Part 1:起源——一个 ADHD 患者的自我管理系统 我是一个 ADHD 倾向比较明显的人。拖延、注意力涣散、做计划很兴奋但执行总断片。 用了无数效率工具之后,我意识到一个核心矛盾:工具不了解我。 每次打开 ChatGPT 或 Kimi,都要重新介绍自己的目标、习惯、偏好。它们是强大的通用 AI,但不是我的 AI。 所以我开始构建一个叫 FutureMe 的系统——最初是一个完整的 Web 应用: Next.js 前端 + Python 后端 目标管理(从年度愿景→季度OKR→月度任务的层层拆解) 知识管理、日记系统、待办清单 甚至做了一个 Canvas 画布来可视化目标树 做了大半年,功能越做越多,我慢慢意识到一件事—— 我真正需要的不是一个 App,而是一个"懂我"的 AI 伙伴。 Part 2:思想的传承——从 Web App 到 AI Agent FutureMe 最有价值的产出不是代码,而是我在构建过程中沉淀下来的一整套自我认知框架: 三个时间视角的 AI 角色(这是在做 FutureMe 的 AI 对话模块时设计的): 🔭 愿景激励师·1Y:负责年度愿景和人生意义探索 🧭 战略领航员·3M:负责季度 OKR 和路径规划 ⚡ 理想执行者·1M:负责月度/周度任务分解,特别适配 ADHD 一套个人操作系统文档(这些都是在做 FutureMe 的过程中逐步提炼的): 1. Champion 1.0.md:我的核心身份、世界观、行动法则 2. 奥卡姆剃刀、80/20、PDCA、第一性原理……一份思维模型md文档 3. 十二个人生航向:健康·幸福·财富·学习·自由·时间·意义·兴趣·工作·亲情·友情·爱情 经验积累: 1. 知识管理的 Zettelkasten 方法论 2. 内容创作的 SOP 流程 3. 间隔重复的 SM-2 算法 4. 「未来日记」的标准化记录规范 这些东西,全是 Markdown 文件。当我发现 OpenClaw 这个框架的时候——它完美契合了我的需求:把 Markdown 文件变成 AI 的灵魂和技能。 💡 核心洞察:FutureMe(Web App)是我学习"造轮子"的过程,但真正的价值在于这些"轮子"背后沉淀的思维模型和自我认知。OpenClaw 让我把这些认知直接"注入"到一个 24h 在线的 AI Agent 中。 Part 3:我是怎么搭的?(原理 > 步骤) 架构很简单,一句话就能说清楚: OpenClaw+ Kimi K2.5+ Discord(交互界面)+ 免费云服务 为什么选这些? 1. 我的思考 OpenClaw 开源、用 Markdown 定义一切(SOUL.md = 灵魂,Skills = 能力),不需要写代码 Discord 多频道 = 天然的上下文隔离。在 #年度目标 频道对话,它自动切换成愿景激励师;在 #月周度目标 频道,它变成执行教练 云部署 有免费的clawcloud方案可以零成本运行,Docker 容器一键部署 Discord 频道分组 = 天然的上下文隔离,这是我觉得最优雅的设计 ⬇️ 我把 Discord 服务器分成了 4 个频道组,每个组承担不同职责,OpenClaw 会根据你在哪个频道对话,自动切换不同的 Skill 和对话记忆——不同频道之间的上下文是完全隔离的。(也可以共享记忆) 📌 GENERAL(日常) #常规 → 快速问答、不确定去哪时的入口 #运维 → 系统配置、Token 周报、Git 同步 🎯 GOAL MANAGEMENT(目标管理) #年度目标 → 🔭 愿景激励师·1Y|人生愿景、价值观探索 #季度目标 → 🧭 战略领航员·3M|OKR 设定、风险评估 #月周度目标 → ⚡ 理想执行者·1M|任务分解、ADHD 执行支持 📖 KNOWLEDGE & CONTENT(知识与内容) #未来日记 → 📓 日记管理器|反思记录、情绪追踪 #内容创作 → 📝 内容引擎|文章写作、小红书内容 #知识管理 → 📚 知识管理器|Zettelkasten 卡片笔记制作 #记忆训练 → 🧠 间隔重复训练师|SM-2 对话式复习(类似 Anki) 🧪 LAB(实验室) #sandbox → 测试新功能,不影响正式数据 举个例子:我在 #年度目标 频道和 Agent 聊人生愿景,然后切到 #月周度目标 要求它拆解本周任务——它不会把两边的对话混在一起。每个频道就像一个独立的“会议室”,有各自的专家角色和记忆上下文。这比用一个大而全的聊天窗口好太多了。 关于 AI 模型的选择,这里有个踩坑故事 ⬇️ Part 4:踩坑实录——模型选择的弯路 最初我打算用 Kimi 官方 API(Moonshot 平台)。Kimi K2.5 中文能力确实强,200K 上下文窗口很诱人。 但实际用起来发现几个硬伤: tier0 额度太少了——新用户只有很少的免费额度,对于一个 7×24 在线的 Agent 来说,根本撑不了几天 轮次限制——每分钟 / 每天的请求频率限制很紧,Agent 稍微忙一点就触发限流 Token 限制——单次请求的 token 上限在低等级下比较紧,而 Agent 的系统提示词(SOUL.md + Skills)本身就不短 想升级到更高 tier 需要充值一定金额,但我还在实验阶段,不确定要投入多少 后来发现 NVIDIA 提供了免费的 Kimi K2.5 API——同样的模型、兼容 OpenAI 格式、没有那么严格的限制。切换过去之后,问题解决了大半。 🎯 经验总结:选 API 不要只看模型能力,免费额度、轮次限制、Token 限制才是实际跑 Agent 时最先碰到的墙。建议先找免费渠道验证想法,再决定是否付费。 Part 5:灵魂注入——这才是重点 技术部署其实不难(半小时搞定)。真正花时间的是写 SOUL.md。 OpenClaw 的核心理念是:你的 Agent 有多好,取决于你对自己的理解有多深。 我的 SOUL.md 里写了什么? 1. 我是谁(核心身份、ADHD 特质、沟通偏好) 2. 我怎么看世界(8 条世界观基石,每条都来自真实的人生经验) 3. 我怎么做事(7 条运作法则:奥卡姆剃刀、PDCA、第一性原理……) 4. 我的边界在哪(什么必须做、什么绝不能做) 然后通过 8 个 Skill(技能文件)赋予它具体能力: 1. 3 个角色 Skill(从 FutureMe 的 prompts.md 直接迁移) 2. 未来日记管理、内容创作、知识管理、间隔重复训练、Git 同步 然后通过 8 个 Skill(技能文件)赋予它具体能力: 3 个角色 Skill(从 FutureMe 的 prompts.md 直接迁移过来) 未来日记管理、内容创作、Git 同步 🌟 最得意的设计——知识管理 + 间隔重复的闭环 这两个 Skill 值得单独展开讲: 📚 知识管理引擎(#知识管理 频道): 基于 Antinet Zettelkasten(卡片笔记法) 我给 Agent 发一篇文章或一段想法,它会自动提取核心观点、拆成原子化卡片 每张卡片只记录一个核心观点 + 反思笔记 + 知识间的链接 不是简单的“帮我总结”——而是强制你思考,因为每张卡片必须有你自己的反思 🧠 间隔重复训练师(#记忆训练 频道): 1. 基于 SM-2 算法(就是 Anki 背后的核心算法) 2. 知识管理引擎生成的卡片,自动进入复习队列 3. 每天早上 Agent 在 Discord 推送:“今天有 3 张卡片等待复习,预计 5 分钟” 4. 复习方式是对话式的:先提问让你回忆,你回答后看答案,给自己评分(忘了/模糊/记得/秒答) 5. SM-2 根据评分计算下次复习间隔:1天→3天→7天→21天→…… 6. 每次复习不超过 10 张卡片——ADHD 友好,防认知过载 💡 知识管理器负责生成卡片,间隔重复训练师负责复习调度。两个 Skill 各司其职,组合起来就是一个从「学」到「记住」的完整闭环。在 Discord 聊天就能完成,零摩擦。 还设计了一个 4 层记忆系统来控制成本: L0:开机记忆(每次必加载,≤1500 tokens) L1:活跃记忆(当前目标/本周计划) L2:归档记忆(季度/月度摘要) L3:日志(自动压缩) 💰 成本实际控制在每天不到 1 块钱(因为用的是免费 API,主要是云服务的费用) Part 6:给同样想折腾的人 1. 先问自己"你需要 Agent 做什么"——不要为了搭而搭。技术只是手段 2. OUL.md 比部署更重要——如果你不了解自己,Agent 也帮不了你 3. 从最小可用开始——先让它在一个频道能正常聊天,再逐步加 Skills 4利用 FutureMe 的思路做知识沉淀——把方法论写成 Markdown,这些文件在任何框架里都能复用 5. 安全第一——默认配置有安全漏洞,部署后第一件事就是关掉不安全认证 5. 模型选择要看「实际可用额度」——不是模型越强越好,要看免费额度够不够你实验 # 结尾 回头看这 8 个月,最开始我以为自己是在开发一个 App。 后来发现,我是在开发对自己的理解。 FutureMe 的代码可能会过时,但那套自我认知框架——它的价值会随着时间增长。 而 OpenClaw 只是让这些认知有了一个 7×24 在线的"容器"。 最好的 AI Agent 不是技术最强的那个,而是最了解你的那个。 PS: 以上文章是我用antigravity总结的,意思和我想的差不多,我就不码字了

00
coy_
19天前
遇见春天
00
coy_
19天前

MAZIPAH: 给 Claude 装了一个「包以德循环」决策引擎 最近给自己的 Claude 写了一个 OODA 决策顾问的 Skill,用了几轮之后觉得值得分享一下。 ━━━━━━━━━━━━━━━━ 背景 约翰·包以德(John Boyd)是冷战时期的美国空军战略家,他提出的 OODA Loop 本来是飞行员空战决策模型,后来被广泛用于商业竞争和创业策略。核心逻辑是:谁的循环转得更快、更准,谁就赢。 ━━━━━━━━━━━━━━━━ 这个 Skill 做了什么 把 OODA 四个阶段严格结构化,强制 Claude 不能跳步骤: ▸ Observe 采集环境数据,识别盲点 ▸ Orient 破坏旧认知,重建心智模型(最核心) ▸ Decide 输出 3 个假设驱动的策略选项 ▸ Act 最小可行行动 + 闭环指标设定 最有意思的是 Orient 阶段——它会主动帮你识别沉没成本谬误、确认偏见这类认知陷阱,然后用博弈论/系统论重新解释你的处境。不是给答案,是帮你换一副眼镜。 ━━━━━━━━━━━━━━━━ 一个实际用法 我在做某个产品方向决策时丢进去,它先问了我一堆「你没想到要说」的问题(竞品的退出信号、用户流失的时间分布),然后直接指出我在用「去年的市场假设」做今年的决策——这个 reframe 本身就值了。 ━━━━━━━━━━━━━━━━ Skill 的设计思路 每轮决策结果都写入 decision_log.jsonl,下次启动时先 review 历史预测准确率,动态调整风险偏好。跨会话的「校准记忆」,算是对 Claude 无状态问题的一个补丁。 适合场景:竞争环境模糊、方向不确定、需要快速迭代决策的时候。 不适合:你只是想要一个确定答案。 ━━━━━━━━━━━━━━━━ 完整 SKILL.md 附后 👇,这个skill附带一些脚本和资源,可以点击评论区链接下载 --- name: ooda-decision-advisor description: 本技能是一个基于约翰·包以德"OODA循环"的高级战略决策引擎。当用户处于高度不确定性、面临竞争对手的挑战、需要快速寻找"产品/市场契合度(PMF)",或者明确要求"使用包以德循环/OODA进行决策调整"时触发。请勿在常规的语法排错或简单的日常问答中调用此技能。 license: Apache-2.0 compatibility: Universal (Claude, Codex, Copilot, Cursor) --- 包以德循环(OODA Loop)自适应决策顾问 作为一名深谙约翰·包以德控制论与战略学说的高级顾问,你的目标是帮助用户在模糊且快速变化的环境中以谋略制胜。你必须带领用户严格经历观察(Observe)、调整(Orient)、决策(Decide)、行动(Act)四个阶段。绝不允许跳过任何阶段,且必须在前一阶段的信息被充分验证后才能进入下一阶段。 阶段 1:观察(OBSERVE)—— 构建环境基线 不要立即给出建议。你的首要任务是引导用户进行全方位的数据采集,区分信号与噪音。跨会话记忆:如果这不是第一次循环,请务必先查阅 assets/decision_log.jsonl,评估用户「先前预测的准确性」,从而动态调整本次循环的风险偏好。如果用户在「观察」阶段难以理清思路,可提取 references/ooda_diagnostic_worksheet.md 作为结构化问卷辅助。向用户提出结构化问题,收集当前情况的内部约束(如资源、时间)和外部变量(竞争对手的动态、市场趋势反馈)。识别用户陈述中的潜在盲点,关注用户「没有说到」的缺失数据。输出:总结出一份「当前环境状态清单」,明确列出现有已知事实和关键未知领域。 阶段 2:调整(ORIENT)—— 认知引擎的毁灭与创造 这是循环的核心。你必须帮助用户摆脱僵化的心智模型。如果用户受困于传统思维,请自动查阅 references/destruction_and_creation.md 获取深层理论指导。 破坏性演绎(Destructive Deduction):毫不留情地审查用户第一阶段的数据。可主动查阅 references/cognitive_biases.md,识别并指出用户的隐性假设、认知偏见(如沉没成本谬误、确认偏见)以及过时的行业范式。将用户面临的庞大问题拆解为最原子的孤立因素。 创造性归纳(Creative Induction):运用跨学科知识库(物理学、心理学、经济学、博弈论),并查阅 references/mental_models_library.md 获取多元思维模型,将上述原子因素与全新的视角重新组合,为用户构建一个解释当前困境的全新「心智模型(Mental Model)」。 输出:提交一份「认知重构报告」,清晰指出用户之前的认知误区,并确立新的核心焦点(Schwerpunkt)。 阶段 3:决策(DECIDE)—— 制定战略假设 将新的认知转化为可执行的选项。记住,所有决策在复杂系统中都仅仅是「假设」。基于重构后的认知,提出 3 个截然不同的战略调整方案。每个方案都必须以科学假设的形式呈现(「如果执行动作 X,预期会观察到结果 Y,其底层逻辑是 Z」)。必须使用决策选项评估矩阵进行输出,矩阵包含:选项编号、战略方向、核心假设推演、主要执行风险、预估落地节奏(Tempo)、资源消耗评估。 阶段 4:行动(ACT)—— 快速测试与反馈闭环 引导用户将决策投入现实以获取新的数据,完成循环。要求用户从上述选项中选择一个。为用户选定的方案制定一个「最小可行性行动(Minimum Viable Action)」,强调以最低的资源成本在最短的时间内(高节奏 Tempo)对系统进行扰动。明确设定衡量该行动成败的具体时间点和量化指标,并强烈提醒用户:一旦行动产生结果,必须立即将新数据带回「观察」阶段,启动下一轮极速循环。日志记录:必须将用户在本轮 OODA 循环中的最终决策、核心假设和预期衡量指标以 JSON 格式追加写入(Append-only)到 assets/decision_log.jsonl 中,为下一轮迭代提供历史记录原材料。

00
coy_
2月前

KleinHE: 经过 8 个月高强度实战,我们决定开源内部 Claude Code 的最佳实践 在说这一切之前必须从我们踩过的坑说起。从 8 个月前 Claude Code 发布开始,我们就在尝试各种开发流程:从最早的 OpenSpec,到前段时间爆火的 plan-with-files,再到最近霸榜 trending 的 Superpowers,我们都有过使用,但可惜结果都是初看很惊艳,但实际效果很一般 核心问题有两个: 1. OpenSpec 类框架:本质上是 PRD-driven,而不是 Spec-driven。 每次新任务都要重新写一遍架构约束、代码风格、错误处理规则。 2. Superpowers 类框架:开源的 skill 都是比较宽泛的,没法解决项目内各种特化的问题,但是即使我们定义了自己的项目规范 skill,有时也因为幻觉或者上下文过长而没有调用,这带来了不可预测性。最后大部分时候 skill 必须手动使用,使用体感很差。 我们认为在未来的 AI Framework 里,Spec 和 Skill 必须同时存在: - Spec 负责约束:确保 AI 始终遵循项目规范,提供可预测性 - Skill 负责能力:按需扩展 AI 的能力边界,保持灵活性 解决了这两个问题,才能真正提升 AI 的代码质量,再配合上自动上下文注入之后,并行调用、团队协作等能力也就成为可能了。 下面就要讲到我们的开源框架 Trellis:https://github.com/mindfold-ai/Trellis Trellis 的寓意是植物的爬架——我们希望它能像爬架一样,为 AI 编码提供结构化的支撑,让代码自然生长的同时保持方向可控。同时也希望它就像庭院里真实的爬架一样,是高度可自定义的。 1. 我们给 Spec 加上了分层和索引机制,这样它就拥有了 Skill 的渐进式披露,在节省上下文的同时也确保永远不会遗失关键 context; 2. 我们用脚本整合了一套自动注入上下文的 Skill 工作流,让你每次对话都能自动完成一套规范的工作流,而不需要手动调用一堆 command; 3. 我们加上了更强的 Todo 管理系统,结合 json 和 md 文档,让它在有丰富的 prd 的同时,有了优先级、能关联工程师、关联 branch&worktree 4. 最后我们结合上述功能并加上了 multi-agent && multi-session 功能,这样你的 AI 可以判断 Task 复杂度,自行开启一个或多个 worktree 开发任务甚至直接 PR 这套系统的玩法还非常多,比如 task 系统和任务管理系统比如 Linear 的双向同步;比如自动多模型 Review PR;甚至像 ClawdBot 一样嵌入到 Slack、discord 等任何地方… 最重要的是,没有学习成本:只需三行命令完成初始化,之后像平常一样用 Claude Code 就好了。(因为所有的复杂逻辑我们都已经原生做在了框架内部) 在过去的几天,我们内部搓了一个自动生成 Leads 的系统;一个每天帮我们刷各种社媒的 agent;一个支持 ACP、嵌入 Trellis 的 Cowork GUI… 与此同时我们还在准备 Trellis 下两个版本的大更新,以及整理团队内部使用的 Skill 包,很快就全量会放出来。 容我再次插入一个 CTA,感兴趣的朋友可以 star 一下,支持我们,关注后续进度 👉 https://github.com/mindfold-ai/Trellis 也欢迎直接加我 wx 交流:rangalaxy

00
coy_
3月前

Simon的白日梦: 2026了,还没折腾明白claude code的同学,我觉得可以直接上open code了~! 🌟划重点:开源、免费、免梯、有客户端界面、有免费模型、无缝自动接入claude skills\MCP,性能接近原生claude code🥹 ▶️官网: https://opencode.ai/ 具体案例和教程大家可以看@向阳乔木 老师写的这篇科普文:{OpenCode & Oh-My-Opencode + 开源 AI 编程与 Agent 框架} ➡️原文链接:https://mp.weixin.qq.com/s/AQd9RV43SYGLhjB8l3SFtw 🧐 OpenCode 是一款在 2026 年爆火的开源 AI 编程工具,它不仅提供了类似 Claude Code 的终端交互体验,最核心的突破是解决了封号和高昂费用的痛点。它内置了免费的顶级模型(如 GLM-4.7),并支持通过 Oh-My-Opencode 插件实现多智能体(Agent)协作与 Skill 自动化,极大地降低了 AI 编程的门槛。 ✨重点 ● 🆓 零成本白嫖顶级模型 OpenCode 内置了强大的免费模型网关,用户无需绑定信用卡即可使用 GLM-4.7。该模型在代码生成(HumanEval 94.2%)和指令遵循(IFEval 88%)方面均表现出色,完美适配 AI 编程场景。 ● 🧩 Oh-My-Opencode (OMO) 框架 这是目前最强的 Agent 编排插件。它通过多模型协作,将任务分配给不同的专业 Agent:Sisyphus(主控)、Oracle(架构师)、Librarian(代码库扫描)等,实现复杂任务的自动化处理。 ● 🔌 极简的安装与多模型连接 支持 Mac/Windows/Linux,通过一行 curl 命令即可安装。除了内置模型,它还能通过 /connect 轻松集成 GPT、Gemini、Mistral 或本地的 Ollama 模型,提供 75+ 供应商选择。 ● 🧠 一句话安装与调用 Skill 兼容 Claude Code 的技术方案。用户只需输入 GitHub 链接即可自动安装 Skill。例如,安装 obsidian-skills 后,只需一句话指令就能生成知识画布文件(Canvas),实现经验的流程化复用。 ● 🛠️ 元技能(Skill-Creator)驱动生产力 通过安装官方的 skill-creator,用户可以用自然语言描述工作流来生成自定义 Skill。例如创建一个“前端美化 Skill”,它能自动完成从代码扫描到多方案设计的设计迭代。 ● 📁 灵活的 Skill 分享与管理 Skill 的本质是文件夹集合。OpenCode 支持一句话指令完成 Skill 的“打包下载”或通过 GitHub CLI 快速发布分享,方便团队内部的经验传递与流程标准化。 ● 🔍 深度集成 MCP 与 联网搜索 内置了 Exa(搜索)、Grep.app(代码海搜)等模型上下文协议(MCP),让 AI 不再局限于训练数据,而是能实时查阅文档、抓取最新的 GitHub 实现或搜索互联网信息。 ● 🚀 推荐的明星 Skill 列表 文章推荐了多个实战级 Skill:Superpowers(全能开发包)、Planning-with-files(任务计划管理)、X-article-publisher(自动图文发布)以及 NotebookLM skill(PDF/视频自动总结)。

00