即刻App
年轻人的同好社区
下载
App内打开
yan5xu
57
关注
193
被关注
0
夸夸
🤖 AI 野生研究员 |ex manus&monica
内容仅代表个人观点,和公司无关
vx:cplife
置顶
yan5xu
4月前
说一个在前司的观察:搞应用的,天天手动拼 prompt、管理上下文,去提高prompt cache 命中率,都快卷的没招了,实际就是在模拟“状态”。这全赖底层的推理 API 还是最原始的 stateless 形态。
所以我有一个强烈的预感:
下个能掀起波澜的 AI 产品,会是一个深度结合推理和应用层的怪物,把状态管理、KV Cache 复用做到极致,当别人还在为优化 10% 的 prompt 成本而沾沾自喜时,它在推理层通过“降维打击”的方式,用更少的成本获得了 10 倍的性能。从此之后再也不会有人认为 AI 应用是简单的套壳了
9
1
2
yan5xu
3月前
发现一个邪门的 chatbot 技巧。
在润色推特文案的时候,我会设定 bot 的角色--“我的助理,mit LLM 在读博士”。当涉及到其他行业,我就会😂让他“找同学”;比如投融资,就让他问问在哈佛商业学院的“同学”,效果不错~
2
0
0
yan5xu
4月前
每次写压缩相关的内容,都会想起游戏史中红白机马里奥是如何极致优化存储空间,和后来介质发展后,CG 游戏大当其道的历史;所以什么时候要专注于优化,什么时候要提前赌技术发展,真的考验眼光。
yan5xu: LLM 优化,常用技巧是压缩,有两个相反操作路径。 1, 对输入进行压缩,常见于旗舰级模型,用概念替代大段描述;李继刚“神级 prompt”是典范,"Oscar Wilde" "鲁迅" "林语堂"替代行文风格;难度在于对概念的抽象理解和积累,并且需要反复尝试,跨模型适配差; 2. 对输出进行压缩,适用于所有模型,尤见于 agentic 产品,用精准封装的 tools 替代agent 完整执行任务;难度在于 tools 尺度的选择,太少没效果,太多又会占据注意力,导致效果劣化,考验设计哲学;
1
0
0
yan5xu
4月前
LLM 优化,常用技巧是压缩,有两个相反操作路径。
1, 对输入进行压缩,常见于旗舰级模型,用概念替代大段描述;李继刚“神级 prompt”是典范,"Oscar Wilde" "鲁迅" "林语堂"替代行文风格;难度在于对概念的抽象理解和积累,并且需要反复尝试,跨模型适配差;
2. 对输出进行压缩,适用于所有模型,尤见于 agentic 产品,用精准封装的 tools 替代agent 完整执行任务;难度在于 tools 尺度的选择,太少没效果,太多又会占据注意力,导致效果劣化,考验设计哲学;
3
1
4
yan5xu
4月前
别卷了😲 学不动了
静怡Lisa: 上午学习了朋友发表的最新论文。他们提出了一个端到端的 RL 框架 MEM1,可以让 Agent 在超长、超多轮的任务里,始终用“恒定大小”的内存运行(图1),不会像传统 LLM 那样一路“背历史包袱”。MEM1 的设计思路是将“记忆整合”和“推理决策”融于一体,每走一步就主动对记忆来一遍“断舍离”,不需要外部记忆模块,极大提高效率。Agent 只需要维护自己上下文里的一个内部状态(<IS>),而这个< IS>里面,只保留模型判定为最关键的信息。(图2) 为了激励 Agent 学会高效地整合状态,环境会被设计成:只有当Agent能有策略地保留并整合有用信息时,才能获得奖励。Agent无法访问全部历史上下文,因此必须学会将相关知识保存在内部,并不断地自我更新,才能最终拿到奖励。模型引入了一种 mask机制,确保每个token只能关注到当前内存里被保留下来的内容。具体来说,对于任意一个token位置k,该机制会屏蔽掉那些不属于当前整合内存的历史token。(图2) 从结果看,MEM1 在复杂长链任务中准确率、效率都大幅提升,尤其是任务目标数越多,优势越明显。推理时间更短,内存占用更小,实际部署中的成本就更低。(图3)而且,MEM1 还体现出了一定的泛化能力,可以 zero-shot transfer 到没见过的新任务上,且展现了 emergent behaviors, 比如遇到死胡同会自己切换目标, etc. https://arxiv.org/html/2506.15841v2
1
1
0
yan5xu
4月前
帮cherry studio 招人。
cs 背后就两人,没错,GitHub 32K 🌟的项目,就是两个人维护的。
从去年就对很多朋友说,AI 应用开发除了多了一个 LLM 接口,并没有更多的概念,真的不难,对未知的恐惧才是更大的门槛。
同时对于想要进入 AI 的团队来说,与其花大精力去外面挖人,不如从内部培养;毕竟已经有认知的人还愿意动的人,谁能抗拒自己做点事的诱惑呢,这些人挖是挖不来的。
https://mp.weixin.qq.com/s/RmAxsKz30Ohkpe434Z9JmQ
4
0
0
yan5xu
4月前
离职这段时间,在招聘市场荡了一圈。发现AI的核心或者主力研发是挖不到的但凡能被人看到的,都是有很强自驱力,被验证过实力的人。这个时间,都想自己做点事情。
企业方,与其花精力挖人,不如给空间,让内部有想法的人去实践,总能拔出一批来。
其实对未知的恐惧才是AI最大的门槛
4
0
1
yan5xu
4月前
AI 产品又进入到新的垃圾时间。模型进化降速,产品形态停滞,资本吵闹,创新乏力。我们正好回顾过去:
24 年初 Chatbot&套壳已现疲态;GPT-4o 宣告了数字游戏(3/3.5/4)的终结,也打碎了 LLM 无限进化的狂热。直到八月,Cursor 在 Claude 3.5 Sonnet 发布的两个月后,才在 Coding 这一垂直领域证明了 LLM 的应用深度,打破僵局。而市场,旋即回归平静。
25 年初,以 Deepseek 为代表的开源模型虽让市场再度火热,但这只是开源策略的胜利,但没有带来新的产品叙事。三个月后 manus 的登场,才真正拉开了 agent 的大幕;
而现在,正处在又一个垃圾时间。Agent 是不是已经端不出新的菜?能讲出下一个故事的,又会是谁呢~
5
0
0
yan5xu
4月前
播客有个部分很赞同。最近和很多团队交流的时候,我都会说,面对llm/agent这样一个新技术,传统产品经理对技术的边界,可行性都不了解,如何提出一个可靠的产品方向呢。新技术落地的草莽阶段,一定是从技术人员里选拔培养产品出来。还停留在移动互联网时代组织架构的团队,只会觉得别扭,怎么都赶不上别人的速度。
张小珺Jùn|商业访谈录
4
0
0
yan5xu
4月前
提供一个很好的视角理解web3。作为程序员其实一直没get为什么区块链明明一个很慢的系统,却被人说成很快,原来是视角没有切换为金融系统,和现有体系作比较。学习了
您的浏览器不支持 audio 标签。
E203|股票代币化时代,揭秘Robinhood商业模式与加密野心
硅谷101
5
1
0