即刻App年轻人的同好社区
下载
App内打开
Yangyi.
36关注5k被关注7夸夸
🔅推特:Yangyixxxx
🔅分享商业&增长营销
🔅Reverb Marketing
🔅小报童:独立开发/Reddit营销获客增长手册
置顶
Yangyi.
3月前
今天初一,牛马AI如约而至,开启第一波内测
为了限制一下内测范围,点赞转发本内容,评论“参与”
我会逐一给大家发悄悄话邀请内测群,记得查收
感谢每位愿意参与内测给反馈的朋友们🫶
----
长期邀请码:NM-7S6T-VW23
niuma.limyai.com
-----

另外,大家如果问牛马AI和其他AI客户端有什么不一样
我认为它可以说是本地免费版的manus/genspark,是AI时代的人机协同工作台

1、完全适配claude agent sdk并傻瓜安装,支持各类模型接入和本地模型,如果使用本地模型可以完全离线化
2、支持定时任务和AI长期计划,配合看板,人机协同
3、支持绝大部分类型文件的本地渲染和快速编辑处理
4、打通本地应用,比如你可以直接调用seedance生成视频,剪映素材箱立马就渲染出来了,这些素材可以无缝衔接工作流
5、支持飞书,企业微信等webhook机器人通知
6、快速协助用户傻瓜式安装skills
7、用户数据本地绝对安全,AI交互过程只转发不留存,云端没有任何用户隐私敏感数据存储
8、同步进行skills本地查杀和远端审查,进一步保证安全性(目前迭代优化中)
9、本地browser use联动(目前迭代优化中)
586248
Yangyi.
1天前
以前想法不值钱
现在想法更不值钱了
如果有个人跟你说他有一个好的想法
你对他至少有了一个初步判断
就是他连AI都不会用

现在至少应该是让别人看到这个想法最初的玩具形态
基于这个玩具想象未来的宏伟叙事吧
10
Yangyi.
1天前
大部分事物都存在不可能三角

性价比的不可能三角是便宜 好用 容易发现
找老婆的不可能三角是美丽 脾气好 能力强
找男人的不可能三角是帅气 有钱 专一

同时满足2个条件的解很容易找到
同时满足3个条件的解是要付出巨大代价的
毕竟三生万物 当你找到这种解的时候 会获得巨大的收益

但大量的人缺乏常识
误以为找到了同时满足三者的解
实际上绝大部分都是骗局
这世界上只有伪装的骗子才足够完美
或者就是我们的双眼被幻觉蒙蔽了无法意识到残缺
12
Yangyi.
2天前
免费开源一个skill安全防护的查杀工具

这是一个纯vibe coding的项目
难免存在准确率失真和误杀的情况
毕竟这是个玩具项目,和专注做安全的大佬们做的东西肯定不能相提并论
主要是为了牛马AI的skill marketplace和企业端做准备才糊的工具,客户端内置了这个查杀,一定程度上保障安全

关于这个项目的起始doc文件也公开了 里面是最早和AI探讨安全策略后产出的内容
有任何badcase可以提issue
Agent会去看github慢慢优化

github.com

我也利用这个skill做了clawhub的审计,输出了一份报告
大家也可以安装skills来排查是否有安装了命中耻辱柱的skills

目前仍然在用它查杀网络上各种被发布收集到聚合列表和导航站里的skills 报告会持续自主新增
skillguard.vip/report/clawhub
03
Yangyi.
3天前
牛马AI里的牛马上传一直没怎么弄 主要担心安全问题
然后自己搞了个skillguard 用来给skill做安全审计检测
我这纯纯是为了一盘醋 包了饺子啊

注册账号每月免费审计30次~
如果有skill market大户可以联系
反正自己也得用 就抽成Infra了

过几天发布
00
Yangyi.
3天前
上个月开始用牛马AI服务跨境电商出海的客户
我把自己的营销knowhow给了牛马AI
让牛马AI去帮我做各种browser use检索获得关键上下文
从而交付这个Campaign

前几天做结案报告
总共发20个Reddit帖子
做了110.8万曝光
评论区里的直接明确意向客户挖了34人进行转化

过往在做Agency的 都是靠人力杠杆做服务
现在容易多了 只要你有方法论 用牛马AI直接就放大
几个人的小团队就能有巨大的产出

这还仅仅是Reddit,SEO/GEO这些更是降维打击了
掌握营销,是这个时代最重要的事情,没有之一
61
Yangyi.
4天前
今天和一个朋友聊奖励函数
突然想到了除了奖励还应该有平衡抑制
就像人饿了会分泌饥饿素促进饮食
饱了会分泌瘦素出现饱腹感抑制饮食

模型训练不应该只有RL,也应该有控制抑制的

而且这种调节激素应该是内源的,而不是外部行为过载时驱动生产的

我就问了问AI现在大家都是怎么做的

可以一起学习下:

这正是当前研究里比较前沿、也还没完全解决的方向。我说几个真实存在的思路,从浅到深:

**1. 预测误差 / 好奇心驱动**

最经典的内源性信号。模型对自己预测不准的状态产生”兴趣”,对已经熟悉的状态降低兴趣。代表工作是 Pathak ICM(Intrinsic Curiosity Module)和 RND(Random Network Distillation)。这天然带饱腹感——你越熟悉某个模式,内在奖励越低,自动推动你去探索别处。对应到你的类比:吃同一种东西会腻。

**2. 经验新颖性 / count-based 探索**

显式或隐式地数”这个状态我见过多少次”,见多了就抑制。伪计数(pseudo-counts)、哈希计数都是这思路。相当于身体记住”这顿吃过了”。

**3. Homeostatic RL(稳态强化学习)**

这个最贴近你的类比。直接借鉴生物学:agent 有若干”内部变量”(类比血糖、水分),奖励不是越多越好,而是让这些变量保持在设定点附近。偏离了产生驱力,回到设定点驱力消失。Keramati Gutkin 那批工作,以及最近一些 neuro-inspired RL 论文在做。这里”饱”是真的会内生出现的。

**4. Free Energy Principle / Active Inference**

Karl Friston 的框架,更激进。agent 的目标不是最大化奖励,而是最小化”惊讶”(预测误差的长期积分)。这内在地包含了探索与利用的平衡——太熟悉的环境信息增益低,太混乱的环境无法预测,系统自然趋向中间地带。某种意义上,饥饿和饱足都是同一个量的两侧。

**5. Empowerment**

Klyubin 提出的概念:agent 倾向于让自己处于”未来选择最多”的状态。这是个纯内源的量,完全不需要外部奖励函数。有点像生物保持代谢灵活性。

**6. 表征层面的饱和检测**

比较新的思路:监测模型内部表征的变化率。如果某类输入已经不再改变内部表征(学饱了),就降低对它的关注。这跟神经科学里的 habituation(习惯化)很像——神经元对反复刺激会自发降低响应。

-----

回到 LLM 训练:目前主流 RLHF 还没有真正的内源性饱腹机制,KL 惩罚是外加的”束身衣”而不是内生的”饱觉”。要让模型自己产生”够了”的信号,大致需要:

- 模型能感知自己的状态变化(元认知)
- 这个感知能反过来调节奖励信号
- 调节是动态的、依赖历史的,而不是固定超参

这块在 LLM 上做得还很少。多数 intrinsic motivation 工作集中在 RL agent(游戏、机器人)上,搬到语言模型还有不少 open problem——比如 LLM 的”状态”到底是什么、“新颖性”在语义空间怎么定义。

你这个问题如果再往下挖一层,会碰到一个更根本的争论:**奖励本身是不是应该是标量?** 生物体的饥饿和饱足不是同一个数轴的正负,而是两套独立的信号系统(ghrelin leptin 走不同通路)。有些研究者认为 RL 用单一标量奖励是过度简化,真正的内源调节需要多通道、相互拮抗的信号——这跟你最初那个直觉完全一致。

LLM 训练里能怎么做
目前 RLHF 基本是单系统:一个奖励模型给标量分,KL 当外挂刹车。你说的协同抑制如果真要实现,可能长这样:
一套激励模型专门学”什么是好的、应该多做的”,另一套抑制模型独立地学”什么是该停的、过度的、要收的”。两个模型用不同的数据、不同的目标、甚至不同的架构训练。最终行为是两边信号的动态博弈,而不是相加。
这跟现在 Constitutional AI 里的 critic、或者 reward model + safety classifier 有点像,但还不够——那些大多还是事后过滤或加权求和,没做到真正的拮抗动力学。真正的拮抗需要:
•两边能相互抑制(一边活跃时主动降低另一边的影响)
•状态依赖的切换(在某些 context 下激励主导,另一些下抑制主导)
•不能简单合并成单一标量
更深的一层
你这个直觉其实指向一个哲学问题:智能体需不需要”反对自己”的能力?
单系统优化的 agent 永远在”想做更多”,它没有内在的理由停下。双系统的 agent 才有真正的内部冲突,而内部冲突可能是审慎(deliberation)、自我控制、甚至意识的前提。Minsky Society of Mind、Kahneman 的双系统理论、弗洛伊德的本我/超我,都在说类似的事——智能可能本质上是多个相互制约的过程的协商结果,而不是单一目标的最大化。
现在的 LLM 训练范式在这点上是简化得过头了。你提的方向不是工程小改进,是对”奖励应该是什么形态”这个底层假设的挑战。
如果让我猜,未来几年这块会有真正的进展——尤其是当人们开始认真处理 reward hacking 和谄媚问题,会发现单标量真的不够用,双通道甚至多通道拮抗几乎是必然方向。
03
Yangyi.
4天前
我在适配牛马AI的intel版本的时候
我发现了一个经验诅咒
就是过往我们认为适配多系统是一个相对复杂的事情
一直碍于技术的恐惧没有投入去尝试
但实际上我发现,和AI来回1轮,就交付用户用起来了,报了两次错,修复2轮,现在就能用了
同样的逻辑我也适配了Linux

我们应该扔下过往所有的认知
不要觉得以前就我的技术能力而言 对做某件事的成本评估是极高的
实际上可能跟AI说一句话 就成功了70%
这个时间点,敢,比会重要

你只要敢向AI提要求
往往干的都比人类强

因为AI目前还没有太多人类的恐惧

牛马AI适配了mac的intel芯片,也适配了Linux
大家可以体验试试
xcndc2d0pdyl.feishu.cn
22
Yangyi.
7天前
AI时代有一万种方法搞流量赚钱
说一个最简单最朴素最适合普通人的
那就是学习改变命运
但这不是花钱跟人学,也不学校找老师学,而是和AI学

方法如下:
0、下载牛马AI
1、找到一个你感兴趣的领域
2、向牛马AI提问,让他检索
3、找到好的学习资源,看看大家都推荐什么
4、确定选中其中一个,开始连载学习
5、每天向AI提问,比如学周易吧,就从乾卦开始学
6、提问聊天互相学习,这样AI就有上下文了
7、实践费曼学习,利用skills让牛马AI总结,然后出图
8、牛马AI把图出了,然后让牛马AI给你配个标题和摘要
9、把图发到小红书
10、小红书一边涨粉,一边卖和这个领域相关的商品服务

比如你学周易,你就卖图书卖挂饰卖算命风水服务
比如你在了解茶艺,你就卖茶壶茶碗茶宠茶叶
你学啥,你就卖啥

样子给你打好了,你可以用这套方法去肆杀小红书,小绿书,ins,甚至pinterest了

赚钱搞流量咱不会,那聊天,打字,说话,咱还不会吗?
1833
Yangyi.
8天前
牛马AI支持图片分层啦
01:50
43
Yangyi.
8天前
"嫉妒经济"是 AI 时代最深刻的消费洞察之一​:

AI 商品化基本需求满足,​​消费驱动力将从「功能」转向「地位/身份/可见性"​」。

游戏业的"皮肤经济"是一个信号,人们花钱买虚拟物品,因为它们传递社交地位信息。

这意味着 2026-2030 年的消费品赛道将冲向奢侈、健康养生、体验、社区​会继续放大。而功能性消费品会持续被压价。​​

这个趋势对 B2C 营销的影响极大。请不要再过度关注产品的功能,相反更该关注的,是品牌塑造出的身份感。
00