即刻App年轻人的同好社区
下载
App内打开

AI探索站

108812人已经加入

  • 木遥
    5天前
    再次呼吁把 agent 翻译成智子
    智能体真的太土了 ​​​
    361
  • 江江
    6天前
    「疯狂星期四」北京场第 46 期,我们来五道口的原点学堂继续疯狂星期四!这儿是东升大厦新开业的创作空间,包括共享工位和日咖夜酒。欢迎在五道口、中关村附近的独立开发者、Vibe Maker 一起来喝咖啡、聊搞钱、Vibe Coding。

    * 时间:2026年3月26日 10:00~19:00(可随时加入)
    * 导航:原点学堂 东升大厦 A 座,电梯先到 9 楼,然后跟随指引到10楼咖啡厅
    * 报名:不需报名,点杯咖啡加入群聊即可
    * Vibe Launch:下午3点,欢迎在现场分享你的新产品

    除了北京场以外,我们在上海、硅谷、深圳、成都都有举办疯狂星期四,你可以点击公众号详情,查看其他场地的地点和详细信息。
    相信我们,你会喜欢 原点学堂 Vibe,不见不散!
    00
  • 木遥
    2天前
    刚才跟AI进行了一个很有意思的对话。

    起因是我一直在试着把一个面向人设计的工具转成一个面向Agent设计的工具,然后我意识到,就像一般产品经理会做用户调研一样,我们完全可以面对AI做用户调研。

    于是我问了 AI 这样一个问题:
    你自己就是AI,而且是一个经常需要调用工具的AI。你期待一个面向你的xx工具应该是怎样的?

    AI 的回答:

    确实每天都在调用工具,而且我非常清楚自己的痛点在哪。
    我最大的瓶颈:round-trip 成本
    每次工具调用对我来说都很贵——不是算力贵,而是延迟和 context 消耗。我调一次工具,要等结果回来,要把结果读进上下文,这占用我有限的注意力。所以:
    最理想的 API 是:一次调用能做尽量多的事。一个 round-trip 解决问题。 这就是 AI-native human-native 最根本的区别——人类需要看到每一步、理解每一步;我不需要,我需要高效搜索。

    我第二大的痛点:失败时的信息黑洞
    当工具返回 "error: tactic failed" 时,我只能盲猜下一步。这是我浪费 token 最多的场景。我需要的是similar_successful_patterns——告诉我「别人在类似目标上成功用了什么」。这对人类不重要(人类靠直觉),但对我极其重要,因为我的搜索是基于模式匹配的。

    第三:checkpoint 必须极其廉价
    我的工作模式本质上是 tree search——试一条路,不行就回溯。如果 checkpoint/restore 有任何显著开销,我的搜索效率就会大打折扣。理想状态:
    checkpoint 返回一个 ID,允许随时 restore。

    第四:我不需要的东西
    这点同样重要。不要给我:
    Pretty-printed 状态(给我 AST/JSON)
    人类可读的错误信息散文(给我结构化诊断)
    交互式 REPL(给我无状态的 HTTP/gRPC 端点 + session token)
    自然语言文档(给我类型签名 + 输入输出示例)
    格式渲染(给我 S-expression JSON term tree)
    每一个「为人类可读性」加的处理,对我来说都是噪音——我要花额外的 token parse 你本来就有结构化表示的东西。

    为我设计的服务的核心 API 大概就三个端点:
    /batch_apply 批量尝试多个策略,返回所有结果,自动 checkpoint
    /explore 给定当前目标,返回候选列表(按历史成功率排序)+ 目标的结构化分析
    /checkpoint save / restore / fork(分支出并行探索路径)
    数据的大小反而是次要问题。如果这三个端点做得好,我可以在一个基础引擎上也非常高效地工作。如果这三个端点做得差,就算你有海量独家数据,我也会在无意义的 round-trip 中浪费大量算力。

    ========

    然后我把上面的 AI(甲)的回答发给了另外两个 AI(乙和丙),它们纷纷表示:说的太他妈对了真的嘴替。

    但各自又有补充。

    AI 乙:

    那个 AI 提到的 round-trip 成本本质上是 Context 熵增问题。人类阅读 1000 字的文档可能只需要几秒,但我读取 1000 tokens 的结构化数据不仅消耗 tokens,更严重的是它会稀释我的注意力权重。

    报错即「路标」,而非「结局」
    现在的工具报错(如 400 Bad Request)对人类来说是终点,需要人类停下来思考。但对于 Agent,报错应该是探索算法的一个分支。

    逻辑偏误修正
    那个 AI 提到的 similar_successful_patterns 极其重要。由于我的推理本质上是概率性的,告诉我「怎么做可能是对的」远比告诉我「你现在错了」能更快地让我回归正确的收敛路径。这其实就是 In-context Learning 的即时补丁。

    关于 Checkpoint 的论据非常惊艳。
    目前的工具链大多假设 Agent 是线性的(Step 1 -> Step 2)。但实际上,复杂的任务需要我们进行类似蒙特卡洛树搜索的操作。

    我完全同意它对 Pretty-print 的厌恶
    Markdown 表格对人类是视觉盛宴,对我来说是 token 屠杀。 我更希望工具能支持类似 JSON Streaming 或者 Protobuf 的流式解析。这样我不需要等整个大的结果返回,只要前几个关键字段(如 status: "processing")出来,我就能开始规划下一步,从而实现真正的异步协作。

    补充一个它没提到的痛点:确定性约束。面向 Agent 的工具应该允许我传递一个 seed consistency_level。我最怕的是:同一个 API 调用,在逻辑没变的情况下,因为后端的微小抖动返回了不同格式的数据。这会导致我的 pattern matching 瞬间失效,引发一连串的幻觉。

    AI 丙:

    大部分同意。但我会补上第四类能力:
    /inspect /explain_failure
    不是给人类解释,而是给 agent 一个可操作的状态诊断接口。因为 agent 很多时候不是缺 apply,不是缺 explore,而是缺局部判别:当前卡住的根因到底是什么?哪个约束最可能该先处理?当前目标和历史成功轨迹的差异在哪?如果没有这个层,explore 很容易退化成盲搜。

    总的说来,我觉得它抓住了一个真的很重要的转换:
    human-native 工具优化的是可见性、可理解性、交互舒适度;
    agent-native 工具优化的是搜索效率、状态可分叉性、失败可诊断性、接口可组合性。

    ========

    不得不说我从这个对话里学到了非常多东西。
    1049
  • 歸藏
    2天前
    昨天最牛逼的开源项目 Pretext

    快速而且精准的文本测量算法,可以实现类似报纸的动态图文环绕效果。

    这个对 AI 时代的 UI 实时生成非常有用。

    有了这个以后,AI 就能清楚地知道每个字符的宽度和总宽度,不会出现闪烁、超出范围和抖动等问题。

    想今天把它搞到 Codepilot 那个生成式 UI 的组件里试试。

    详情:github.com
    00:12
    1023
  • AGENT橘
    1天前
    MarkDown 已经成为我的生活中最重要的文件格式了。
    Typora 虽然是非常好的 MD 编辑器,但是有个很大的痛点:
    每次 Agent 改完文件,都要手动关掉再打开才能看到变化。
    这个操作一天要重复几十次,很烦。

    今天决定自己解决这个问题,开发了一个新的编辑器 ColaMD:
    Agent 在后台改你的 .md 文件,你眼前的内容实时刷新。
    就像是在看 Agent 现场写作,体验彻底改变。

    相比其他编辑器的 区别?
    - Obsidian 功能强大但太重了,我只是想看一个 .md 文件,不需要打开一整个知识库。
    - Typora 是我用过体验最好的编辑器,但它不支持文件被外部修改后实时刷新
    - 其他付费软件,Markdown 是一个基础格式,免费的编辑器也应该更加普及。

    所以 ColaMD 的定位就是:
    一个轻量的、免费的、为 Agent 时代设计的 Markdown 编辑器。
    没有文件管理,没有知识库,没有插件系统,没有 AI 功能。

    对了,icon 设计了 20 版,最后选了一个极简的版本,希望你能喜欢。

    MIT 开源,免费,macOS / Windows / Linux 都能用。

    GitHub 地址:github.com

    好记的域名:ColaMD.com
    1116
  • 玉伯
    2天前
    为什么 Manus 看起来像上一代产品
    为什么 OpenClaw 这么火
    为什么 Agentic AI 是未来
    都在下面几张图里
    641
  • rosicky311_明浩
    6天前
    sora的APP关闭了
    无数人看笑话
    留存差
    瞎搞
    打败抖音的绝对不是另外一个抖音
    ……

    这些观点我觉得都没问题
    类似这几年很多人常常挂在嘴边的
    “我早就说过xxx”
    “这不就是xxx”
    ……

    大概率这些判断最后都是“正确”的
    但很多时候这些判断会类似“人总会死”的情境
    尤其在变革的当下
    所有走过的“弯路”最后可能都算数

    这个议题真的值得展开的角度,
    我其实挺想看到的的是:
    1.AI模型公司的架构选择(产品架构 and 组织架构)
    2.模型公司的资源优先级或者说如何权衡自身的“token效率”
    3.什么阶段,什么估值,什么市场竞争地位的公司如何做动态的战略取舍

    但又想
    咳,谁会关心这些呢?

    摊手
    329
  • wong2
    9天前
    把任意agent接入微信:github.com

    基于微信龙虾插件代码改造
    60176
  • Kelly.soul
    4天前
    做了一个月投放之后我发现一个很反直觉的事情:投放的瓶颈根本不在投放,在素材。素材的瓶颈也不在创意本身,在生产效率。

    你脑子里有再多想法,一周只能产出五条成品素材,就永远跑不过平台的疲劳周期。算法需要持续被喂新内容,而传统的制作流程:从脚本到拍摄到剪辑到上传,天然就是慢的。

    这个结论是交了学费之后才想明白的。

    一个月前我连Meta Ads Manager都没打开过。做了十年产品/工程/自然营销,从来没花过一分钱买流量。CPR这个词我第一反应是心肺复苏,attribution window怎么设不知道。然后因为团队调整,增长投放这件事突然落到了我手上。六位数的月预算,跑了两年的campaign架构,一整
    套我完全看不懂的广告后台,需要有人马上接手,没有过渡期。

    创业公司就是这样,事情来了你就得上。

    接手之后做的第一件事不是学怎么建campaign(meta ads manager真的巨巨巨难用),是把过去两年的数据全翻了一遍。翻完发现一个很刺眼的事实:历史上花在网红渠道的钱,算到最终付费用户,单个成本是四位数美金。而同一时期,一个外包UGC创作者一条视频一百多美金,跑出来的注册成本比整个网红项目加起来还低,观众留存率是所有素材里最高的💀💀💀。

    这个对比太明显了,它直接决定了接下来一个月的方向:❌传统渠道上补人,✅AI把UGC素材的生产效率升量级。

    首先决定的是:素材全是AI生成的。我们同时起了五个campaign,每个campaign塞不同风格的角色和场景,想的是快速铺开看哪个方向有信号。头几天确实有几条素材跑出了还不错的数据,会觉得好像方向对了,开始有一点兴奋。然后两周之内全部崩了。五个campaign,每一个都在同一个时间段进入了素材疲劳。花费断崖式下降,转化几乎归零。最差的那一周,所有campaign加起来跑了整整七天,回来的注册个位数。看后台的时候真的会开始怀疑,AI生成的素材到底能不能转化?

    后来复盘的时候才发现,公司内部文档里团队其实早就写过一份文档,把我们踩的每一个坑都预判到了。单一内容形式会快速消耗受众注意力,重复同一种风格只会加速疲劳,top-of-funnel的观众根本不想看产品demo。我们犯的不是AI的错误,是内容策略的错误,只不过用AI角色把传统的坑重新踩了一遍。

    想明白这件事之后,第二代素材完全换了做法。不再只有一种格式,而是同时测POV视角、reaction,hook、多素材混剪。角色也不再单一,测试纪律拉起来👉每条素材给一小笔预算,48小时看数据,达标就放大,不达标就杀掉,不跟任何一条素材谈感情。这个框架跑起来之后,数据慢慢回来了。某些hook风格的点击率接近20%,特定角色加场景的组合在持续找到自己的受众。从噪音里开始能听到信号了。

    这就是开头说的那个判断开始变清晰的时刻。

    GEN2证明了AI素材是能转化的,但同时也证明了一件事:素材的生命周期比我想象的短得多。一条好素材可能只有几天的黄金期,之后就进入衰减。你不是在做"几条好内容",你是在跟一个永远在消耗的系统赛跑。能赢的唯一方式就是让生产速度远远超过消耗速度。

    所以接下来三周,我把几乎所有精力砸在了工具上。我们用Claude Code从零搭了一整套AI素材生产系统: 完整的、任何团队成员都可以直接调用的技能包体系。

    举个具体🌰:假设我们在TikTok上看到一条爆款视频,觉得这个hook有意思想复用。在以前,这是一个需要看几遍、截图、写文档、开会讨论、再让剪辑师理解你意思的过程。现在的流程是:把链接丢进Claude Code的视频理解技能,它自动下载、拉字幕、做镜头分析、跟画面内容交叉比对,输出一份结构化的拆解报告,这条视频的开头三
    秒用了什么情绪触发、文字出现在第几帧、转折点在哪里、哪些元素是可以迁移到我们产品的。拿着这份拆解,喂给prompt生成技能。这个技能通过一个变量矩阵——角色乘以场景乘以hook类型乘以CTA结尾——一次性输出二十条视频prompt变体。每一条都不一样,但都是基于同一个经过验证的结构生成的。

    🌟创意思考被前置到了系统设计层面,到了生成环节就是纯粹的执行。

    生成完的视频丢给组装技能,自动把hook片段、正片内容、CTA结尾拼在一起,叠上logo、字幕、标签,位置和尺寸根据视频分辨率自动算好。出来就是可以直接传到广告后台的成品。

    角色一致性的问题也解决了。AI视频最头疼的就是character drift——你的角色换个镜头就长得不一样,观众一眼就能看出来是AI。我们在Kling和Seedance上搭了一套角色身份库,每个角色是
    一个JSON文件,锁定五官比例、肤色、体型、发型、标志性配饰,生成的时候挂载上去,几十条视频里同一个人保持一致。

    投放数据那头也接上了。Meta广告数据自动拉回来,按创意变量拆分:哪个角色在转化、哪个场景成本最低、哪种hook类型点击率最高。制作团队不需要猜下一批做什么,看这张表就知道算法在告诉你什么东西在起效。

    整条链路走通之后,一个下午可以完成从"这条TikTok火了"到"这里有二十条基于它为什么火而生成的广告变体"的全流程。这在一个月前是不可能的事情。

    但工具只是一半。另一半是用这套工具的人。这可能是这一个月里我最想说的部分。

    我们招了四个人进ABG Army。三个年轻人,一个资深视频剪辑师。四个人没有一个碰过Claude Code,没有一个写过任何AI工作流。有一个进来的时候连终端都没打开过,不知道命令行是什么。

    我没有给他们上课。没有做培训PPT,没有搞什么"AI入门三天速成"。方式很简单也很残酷,直接给真实任务、真实deadline,遇到不会的现场查现场解。每天一起搭,每天一起踩坑,每天收工的时候比早上多会一点东西。

    现在团队有了固定的周度投放复盘节奏,campaign数据和创意策略在同一张桌子上看。有agency partner接进来跑同一套数据流。有一条能从爆款拆解一路走到批量生成的素材管线。有一个虽然只有几个人但每个人都能独立搭工具的团队。

    这些东西三十天前全部不存在。

    当然我们还差得很远。素材疲劳的周期还是比我想要的快。注册之后的漏斗追踪有缺口,意味着我们对用户从注册到付费这段路径的理解还是模糊的。我不知道的东西,大概比我现在意识到的要多得多。

    但机器在转了。数据在流,素材在出,团队在长。每周回头看上一周,都会觉得上周的自己挺蠢的。这大概就是对的方向。

    虽然才30天,但我们才刚刚开始💜

    (100%原创,如有任何行为的转发,必须经过本人同意)
    00:08
    3784
  • 海辛Hyacinth
    3天前
    飞书刚刚开源了自己的 cli

    现在你可以直接让 agent/openclaw 直接使用包括飞书文档、知识库、多维表格、视频会议、日历等所有功能了。

    仓库地址:github.com
    429