体验了当下各类 XX Deep Research和类似Agent竞品,惊艳的同时还是比较粗糙和初级,因为未来还有以下基础设施问题等待解决才能释放Agent的潜力。
除了之前提到过的构建统一的Agent协同网络,如Anthropic的MCP路线和
@常高伟_长山 的ANP路线(更看好👍项目地址→
github.com),来实现Agent间更加安全高效的协同。对于内容生产者来说,以前是需要面向搜索引擎做好SEO,未来最基本的则是要面向Agent做好AEO(Agent Engine Optimization),以使得自己的内容能高效的被Agent获取、处理和交互。
因为现在大多数互联网内容本质上不是对AI Agent友好(毕竟目前网页是给人看的,尽管AI能理解自然语言和多模态,但中间损耗太大,比如Deep Research虽可以成功拆分规划任务,但到了按步骤搜集数据时,许多网页结构、内容存储形式等都会让AI“翻箱倒柜”而解析困难🤯🤯🤯很多数据对于AI Agent来说还是太深、太“dirty”)。
一个临时的过渡方案是所有网站都尽快上线自己的API服务,将自己所有数据API接口化以方便Agent获取,但最终还是需要重构内容生态。
现如今互联网网页这一形式也许已经过时(HTTP是诞生了30年的爷爷辈技术👨🏻🦳我知道有HTTP3,不要杠),我认为Web3.0未来主体应当面向AI而非只有人类(包含面向人类可读的👀、冰山一角的“表信息” + 面向Agent的高密度、结构化、不可读的、冰山之下大量的“暗信息”),未来多数人其实并不需要亲自浏览网页来查找信息和解决问题,就像Google PageRank的出现取代人工索引站、字节跳动新的信息分发算法取代传统内容综合门户一样,Web3和Agent的结合会重构人类知识,带来更广阔的场景,我们要打开想象🤗🤗🤗欢迎讨论~