即刻App年轻人的同好社区
下载
App内打开
方兔
95关注30被关注0夸夸
正在研究ai agent…
方兔
4月前
一张图将MCP与LLM解释明白了,优秀
原文:mp.weixin.qq.com
00
方兔
7月前
我靠,豆包生成的穿搭博主有点逼真啊
提示词:
帮我生成一张图片:帮我生成不同女孩:图片风格为「人像摄影」,及其平凡无奇的iPhone对镜自拍照,主角是韩系女主,在落地镜前用后置摄像头随手一拍的快照。照片开启了闪光灯,略带点快门速度不够导致的运动模糊,构图混乱,整体呈现出一种平庸和日常感,比例 「9:16」。比例 1:1。比例 1:1
00
方兔
8月前
👍,无论是tool MCP 都可以通过提示词实现。补充个案例
cline 的systemprompt,tool\MCP 申明和使用示例都是写在prompt中的(见图)

艾逗笔: 关于 MCP 的几个理解误区: 1. 误区 1:MCP 协议需要大模型支持 MCP 全称模型上下文协议,是为了在用户与大模型对话过程中,补充上下文信息给大模型,让大模型更准确的回答用户提问而设计的。 在 MCP 出来之前,有多种方式可以实现上下文信息的补充,比如: - 记忆存储。把对话过程的历史消息存储下来,每次新提问,带上历史消息一起发送给大模型 - RAG。在让大模型回答问题之前,先从本地知识库或者互联网上检索信息,作为上下文补充给大模型 - Function Calling。传递一堆工具给大模型挑选,根据大模型的返回参数,调用工具,用工具返回的结果作为上下文补充给大模型 理解了给大模型补充上下文的原理,就可以知道,MCP 的本质,是指导应用层,如何更好的补充上下文信息给大模型。 模型收到回复提问请求时,MCP 工作已经完成了。 结论:MCP 协议不需要大模型支持,哪怕你使用古老的 gpt-2 作为问答模型,依然可以使用 MCP 协议补充上下文信息。 2. 误区 2:只有支持 Function Calling 的模型才支持 MCP 协议 聊 MCP 协议,必须要理解 Function Calling 机制。 - Function Calling 是一种交互范式。 基本流程是应用层传递一堆工具给大模型,大模型意图识别,做一次 Pick Tool 操作,返回应该调用的工具名称和调用参数,再由应用层发起 Call Tool 操作,拿到结果重新给到大模型回答。 Function Calling 这套机制下有三个角色:应用、资源方、大模型。 两个核心步骤:Pick Tool 和 Call Tool。 Pick Tool 需要大模型推理,Call Tool 需要应用与资源方交互。 - MCP 协议是一套交互标准。可以理解为 MCP 是对 Function Calling 机制的包装与升级。 MCP 协议定义了三个角色:主机、客户端、服务器。 跟 Function Calling 机制相比,MCP 协议相当于是把 客户端-服务器 作为一个黑盒。 整体视角看,MCP 协议有四个角色:主机应用、黑盒(客户端-服务器)、资源方、大模型 主机把请求给到客户端,客户端请求服务器,服务器对接资源方,主机最终得到黑盒返回的结果,作为补充上下文给到大模型回答。 Function Calling 是应用直接对接资源,MCP 是应用通过黑盒对接资源,对接更加标准化,资源接入成本更低。 Function Calling 是应用直接定义一堆工具,MCP 是应用从 MCP 服务器获取定义好的工具,应用无需重复编码。 涉及到工具调用的环节,MCP 与 Function Calling 的交互形式一致。都依赖大模型的 Pick Tool 能力。 所谓的大模型支持 Function Calling,是指大模型在 Pick Tool 环节,有更好的理解和推理能力,最终能返回更加准确的 Tool 和参数。 不支持 Function Calling 的模型,依然可以通过提示词工程实现 Pick Tool。只不过准确度不如支持 Function Calling 的模型。 结论:不支持 Function Calling 的模型,依然可以使用 MCP 协议补充上下文信息。 3. 误区 3:大模型原生支持 MCP 协议 所谓的大模型原生支持 MCP 协议,正确的理解应该是大模型内化了 MCP 协议的定义,并且内置集成了大量基于 MCP 协议定义的工具。 当接到用户提问时,应用即使不给大模型传递任何工具,大模型依然可以基于内化的工具列表进行推理,返回应该调用的工具名称和调用参数给应用。 事实上,互联网上的资源是千差万别的,意味着对接资源的 MCP 服务器及其内部的工具是海量的,不可枚举的。 另一个关键点是,某些资源是私有的,需要用户鉴权的,大模型训练时不可能内化用户的鉴权凭证。 从这个角度来讲,大模型内化 MCP 协议下的海量工具,不现实也不可能。 某些模型厂商,也许是为了蹭 MCP 的热度,某些自媒体,也许是对 MCP 协议理解不到位,宣称某大模型原生支持 MCP 协议。 其实要表达的意思,也许只是,在随大模型一起发布的某个 agent 框架里面,加上了对 MCP 协议的支持。 结论:大模型原生支持 MCP 协议,这种说法是不专业的。大模型现阶段不可能原生支持 MCP。 本人认知有限,也许会有理解偏颇之处。欢迎补充交流。🙂

00
方兔
8月前
Devin 出deepwiki就是学习github 开源项目的神器呀,自动生成项目文档,可对话。

这个是deepwiki生成的openmanus 的架构图
deepwiki.com
01
方兔
8月前
这个营销玩法可以借鉴
00
方兔
8月前
推荐没有代码经验的产品经理使用windsurf
个人感觉友好点:
1.新用户上来就通过chat创建项目文件,根本不用管终端命令区域;
2.启动项目或执行命令行也在chat界面中,这对于没有终端环境概念人非常友好;
3.修改代码或bug时,默认是workflow模式,用户不用特别在意每个文件作用,它会全局进行向量检索,找出相关代码,虽然这样token消耗快,但最近我发现咸鱼2.6块可以买一个14天的独立账号,真香
00
方兔
8月前
视频号这个AI使用的场景👍一个。利用AI来补充更多视角。
00
方兔
8月前
撰写有效的评估报告正成为产品经理和 AI 产品开发团队的一项核心技能。这些结构化的测试衡量模型在特定任务上的表现,帮助团队了解模型的优势(准确率 99.95%)和劣势(准确率 60%),这些知识从根本上塑造了产品设计决策。评估报告的质量实际上限制了 AI 产品的潜力,因为模型只能针对可有效测量的内容进行优化。

openai anthropic 的产品都说过这个观点:Ai时代的产品经理关键能力是评估集的构建能力

过去两年我在设计Ai功能时在调试和效果评估来回穿插,有时候调提示词或上下文发现会像水瓢,按住一头另外一边就起来了,非常消耗精力和时间。
后来学着建立评估集,发现它的好处是不在纠结某个case的效果而是看整体效果。

只要到达一个概率即可满足上线标准。剩下的根据用户反馈调整或等模型升级
00
方兔
9月前
less structure,more intelligence
这句话是技术哲学,而不是产品哲学

如果AI agent的目标是专业实习生,那么对它的要求是交付结果

技术是工具,而非目的

在垂直领域中通过workflow高效稳定完成任务,用户价值远比通用agent 慢且交付不确定结果更有价值

如果你想吃到快速模型升级红利,降低AI系统功能维护成本。

我的办法是通过将workflow的节点缩短+少量提示词提升维护的灵活性。
00
方兔
9月前
智谱的AI agent :AutoGLM很强,感到就像一个实习生再替自己干活。

能够通过chrome 插件操作浏览器访问:小红书、知乎、知网、公众号文章(搜狗-微信搜索)...,大厂的数据壁垒就被这样打破了吗🤔

aha moment:
1.它用浏览器打开知乎,我没有登录,居然在等待我登录唉,登录后又开始继续操作。
2.在知乎在搜索框输入多个关键词时居然用了空格。
3.搜出结果后还使用筛选功能选择了“点赞最多”
wow ~

测试过程:给了一个我熟悉的任务:深度测评一款重疾险产品,我看着它计划-搜索-打开浏览器-搜索,输出结果远超我预期。市场背景、基本责任、特点、核保宽松程度、和其它产品横向比较、保司核心偿付能力 很完整而且有很多细节。(有部分幻觉,也没有加上图片,但会解决的)➡️chatglm.cn

对比1年前我自己为了让deepseek写出这样的文章,自己用了两周时间模仿别人写的文章(那时候我的认知是掌握know how的才能写好prompt,prompt的核心是COT和few-shot。注:推理模型现在不需要这个技术),然后写了一个3000多字的prompt,并且将所有涉及数据和图片结构化在数据库,来解决幻觉问题。

它学习能力和模仿速度远远超越了我😭

我想未来留给人类只有强健体魄和陶冶情操了吧
56