#每日一个idea
一夜无眠。脑袋里想法太多了,很难控制不去想。
今天想实现一个 mcp-server-collector,昨天写到半夜,还差一点没写完。
希望实现两个 tools👇
1. 第一个 tool,输入一个 URL,输出 URL 对应的页面包含的所有 mcp servers,返回一个数组,每个 item 是一个 mcp server,包括 name/title/description/url/author 等字段。
2. 第二个 tool,输入一个 mcp server 源码仓库 URL,自动提交到
mcp.so 导航站。
为什么要做这个 mcp-server-collector ?
我坚信 mcp 生态肯定会起来,所以要早点围绕 mcp 周边需求做功能。所以我在开发不同功能型 mcp server 的同时,也上线了一个 mcp 导航站,用于收录尽可能多的优质 mcp server。
其中一个需求是每天不断新增的 mcp servers 分布在不同地方,GitHub/Twitter/Reddit 这些平台,人工收录很费时间,需要有一个自动收集器,去找到这些 mcp servers,自动上架到 mcp.so 导航站。
写一个 mcp-server-collector 来实现这个需求最合适不过了,可以理解成一定程度上的自举。
我准备如何实现这个 mcp-server-collector?
1. 涉及到网页内容采集,所以优先选择 mcp 的 python sdk 来创建这个服务
2. 不想重复造轮子,所以获取指定 URL 内容我选择官方的 mcp-server-fetch,在 mcp-server-collector 内部通过一次 rpc call 拿到 mcp-server-fetch 返回的网页内容(Markdown 格式)
3. 把上一步返回的内容,请求大模型总结,提取出包含的 mcp servers 列表
4. 遍历上一步的 mcp servers 列表,请求 mcp.so 的 submit API,提交到导航站
用户如何使用这个 mcp-server-collector
1. 在 claude 桌面客户端使用案例
- 请帮我提取这个网页:
xxx.xx 里面的所有 mcp servers,整理成一个 json 文件让我下载
- 请帮我把这个 mcp server:
xxx.xx 提交到 mcp.so 导航站
2. 写一个脚本,实现 mcp client 逻辑,rpc call mcp-server-collector,定时执行,程序化采集互联网上的 mcp servers,存储到自己的数据库(比如你也做了个 mcp 导航站)
顺利的话,这个 mcp-server-collector 今天写完后开源。
看一下效果吧👇。欢迎交流探讨。