实测了一下 Gemma 4 E2B 能不能做多智能体的协调者。
不是简单聊天,是让它拿到一个自然语言目标,自己拆成任务图,分配给不同 agent,调用工具(bash、文件读写),最后汇总结果。
结果:能跑通。
E2B 的有效参数只有 2.3B(总参数 5.1B,剩下的都是嵌入层),通过 Ollama 本地运行,M1 MacBook 16GB 上跑完一个完整的自动编排流程大概 3.5 分钟。任务分解的 JSON 输出、工具调用、多轮对话都没出问题。
输出质量跟 Claude/GPT-4 肯定有差距,但 2.3B 有效参数能把这套流程跑通本身就挺意外的。
用的是我最近开源的框架 open-multi-agent,TypeScript 写的,3 个依赖,Ollama 接进来改一行配置就行。
GitHub: github.com/JackChen-me/open-multi-agent
完整示例: examples/08-gemma4-local.ts