即刻App年轻人的同好社区
下载
App内打开
渐鸿2025
247关注13被关注0夸夸
出海路上~
渐鸿2025
3月前
刚刚又试了一下用国内的云服务部署 OpenClaw,阿里云和腾讯云都提供了相应操作文档。由于阿里云已经没有可部署的服务器了,就选择用了腾讯云,半个小时就部署好了,还打通了飞书。
不管是用 Cloudflare,还是阿里云、腾讯云,对于不熟悉技术的人来说自己部署 OpenClaw 还是有点繁琐。
或许提供一个可视化的配置页面给普通用户来操作是一个机会:用户只需要在页面上选择使用的模型和收发消息的通道就行,其它的都在后台自动化部署。其实推上已经有人把这个业务做起来了,不过可能是 OpenClaw 太火了,他们依赖的云服务 sold out

渐鸿2025: 花了六个小时终于把 OpenClaw 搭起来了\\(≧▽≦)/ 在 GitHub Codespaces 里打包,部署在 Cloudflare 上,连的是 Cloudflare 的 AI GateWay ,实例用的是 OpenRouter 的 MiniMax M2.1。 预计一个月会有 5 刀的托管费用,刚刚看了只扣了我 1.5 刀。

00
渐鸿2025
3月前
花了六个小时终于把 OpenClaw 搭起来了\\(≧▽≦)/
GitHub Codespaces 里打包,部署在 Cloudflare 上,连的是 Cloudflare AI GateWay ,实例用的是 OpenRouter MiniMax M2.1。
预计一个月会有 5 刀的托管费用,刚刚看了只扣了我 1.5 刀。
11
渐鸿2025
3月前
听了知行小酒馆「2025 年,我花得最幸福的一笔钱」中慢慢的故事,最触动我的话是“比起每个月给妈妈打钱, 有一份固定现金流她可能更幸福”。
我之前还没怎么了解城乡居民养老保险,今天花了两个小时研究,提炼出来的信息图在⬇️
00
渐鸿2025
3月前
做智能体项目(Multi Agent 架构)不会只用一个基模来实现所有场景,我们会根据场景对模型对指令的遵循程度、 Token 的成本、响应时间等多个因素来综合考虑。
Vibe Coding 也一样,也不是从头到尾都只使用一个模型。我更倾向于聊需求、聊设计时使用 Gemini 3 Pro,做架构设计用 Opus 4.5,开发用 GPT 5.2 Codex。
00
渐鸿2025
4月前
顺便分享一下最近的“迁徙”心得。我们尝试把部分流量从 GLM 4.6 切到千问 (Qwen3-Max/Plus) 和豆包 (Doubao-Seed),虽然没做全量压测,但有几个明显的体感差异:

1. Function Calling:GLM 4.6 和千问默认都是串行执行(千问可改并行),豆包上来就是默认并行的。
2. Prompt 迁移成本:基于 MCP 协议封装的 API,在 GLM 上跑通的 Prompt 到了千问上会水土不服,偶尔会漏参或传错参,看来 Prompt 还是得针对性微调。
3. 被报错带偏:豆包有个怪癖,全中文语境下,如果工具调用返回了英文报错,它接下来的思考和回复很容易被带偏,直接转成英文输出。
4. 速度:在非思考模式(Non-Reasoning)下,千问的推理速度确实是肉眼可见最快的。

渐鸿2025: 我们 Agent 项目的主力模型是智谱 GLM 系列。最近将模型版本从 4.6 升级到 4.7 后,发现特定的 Prompt 会导致 GLM 4.7 在 Thinking 过程中陷入死循环,不断重复输出相同内容直到 Token 耗尽。经过多次测试,该问题可以稳定复现。回滚到 GLM 4.6 后,同样的 Prompt 输出恢复正常。 其实这类“死循环”问题从 GLM 4.5 开始就存在,只是不同版本会在不同的 Case 上偶发。 很好奇这种明显的重复输出为何在训练或对齐阶段没有被作为异常 Case 拦截下来?

00
渐鸿2025
4月前
我们 Agent 项目的主力模型是智谱 GLM 系列。最近将模型版本从 4.6 升级到 4.7 后,发现特定的 Prompt 会导致 GLM 4.7 Thinking 过程中陷入死循环,不断重复输出相同内容直到 Token 耗尽。经过多次测试,该问题可以稳定复现。回滚到 GLM 4.6 后,同样的 Prompt 输出恢复正常。

其实这类“死循环”问题从 GLM 4.5 开始就存在,只是不同版本会在不同的 Case 上偶发。

很好奇这种明显的重复输出为何在训练或对齐阶段没有被作为异常 Case 拦截下来?
11
渐鸿2025
6月前
这两天发现笔记本的网络经常断开。一开始以为是在外面用手机热点网络不稳定导致的,后面回到家里也是这种情况。联想到最近刚执行了一些系统更新,很自然地就想到应该是系统版本更新带来的问题。我就看了一下系统的更新历史记录,果然在最近的一条更新记录看到了 Windows 近期有修复网络的问题的说明。按文档说明关闭了系统的严格分析功能就恢复正常了。

Windows 更新说明:support.microsoft.com
00
渐鸿2025
7月前
最近开发的一个 Agent,使用了 glm-4.5 模型作为基座模型。在日志中偶尔会看到调用模型时返回“API 调用参数有误,请检查文档。”,仔细检查了丢给模型的参数,没有发现格式问题。
最后才定位到 message 中的 tool_calls 的参数没有符合 JSON 格式导致的,比如下面这个例子是缺少了双引号。

但是 tool_calls 的参数是模型自己返回的,解决方案就是手动修正格式,把修正之后的内容再放入到 message。如果用的是 Agent 框架,框架自身没有提供入口修改 assistant message 就很麻烦了。
好在 glm-4.6 已经解决了这个问题,同样的参数 glm-4.6 不会报异常,并且模型会返回正确的 tool_calls 的参数。
00
渐鸿2025
7月前
Lovable 团队整理的 AI 编程的提示词手册,部分内容源自于他们团队内部实践经验和社区成员分享,非常实用,值得一看。

https://docs.lovable.dev/prompting/prompting-one

01
渐鸿2025
10月前
在 Claude Code 中使用 kimi-k2 模型的配置非常简单哈。从 Kimi 的开发者后台拿到 key 后,替换项目文件 .claude/settings.json 中的环境变量 ANTHROPIC_BASE_URL 和 ANTHROPIC_AUTH_TOKEN。
我的配置如下图。

其实 kimi 的文档也给出了在其它编程工具中配置使用 kimi-k2 的操作说明:platform.moonshot.cn
00