即刻App年轻人的同好社区
下载
App内打开
甲木未来派
100关注622被关注0夸夸
👀 ENFJ | LangGPT | Prompt
🤖《智能体设计指南》作者
在AI世界中,虚心求教,交个朋友
👉公众号:甲木未来派
甲木未来派
3天前
「爷青回」😱 看到周董在抖音上发了自己的第一条视频,结合AI生成的成长视频,一帧帧的片段闪过了一代人的青春。

想要复刻一下,然后打开「拍我AI」app,发现他们已经上线了「成长类首尾帧」,上传两张「前后」对比图片,直接生成「成长」视频,很赞,实用又简单🤙。

好了,不多说了,我去找过往老照片去了..…
01:36
14
甲木未来派
4天前
「六顶思考帽」
🤔从自己的真实痛点出发,开源一个日常用的「六顶思考帽」Prompt,

愿能帮助各位小伙伴解决日常生活,工作场景,个人提升,商业决策等各类思维场景问题~

(ps.今天的文章配图也比较有趣,来看图识人[让我看看]~)

思维混乱有救了!我把顶级“思维教练”塞进AI,让人人都能用的六顶思考帽(附Prompt)

00
甲木未来派
6天前
飞书多维表格,也将支持「钉钉」和「企业微信」 ​新的格局开始了 😂
00
甲木未来派
7天前
把成熟的技术迁移到新品类,这就叫“溢出式创新”

吸尘器起家的戴森,推出吹风机、加湿器、风扇等等属于此类,大疆无人机做扫地机器人,亦属于此类,甚至是一种「降维」
10
甲木未来派
8天前
我用AI分析了一下BLG vs T1的名场面,效果不错哈哈哈哈~

​​测了一下智谱的GLM-4.1V-Thinking系列的9B模型,感觉:
1、9B的小参数量的多模态能力达到这种水准确实不错,但在复杂问题方面依旧有待提升,在某些方面跟72B媲美;
2、本地部署方面又多了一个选择,同时如果再压缩压缩还能追求下端侧部署;
3、开源万岁,同时期待一下4.1V系列的更大参数版本。

技术报告:🔗👉🏻arxiv.org

我用9B的智谱GLM-4.1V分析了LOL中BLG vs T1名场面,还帮解高考数学题,结果……

12
甲木未来派
12天前
之前有很多小伙伴反馈Lovart没用上,现在Lovart国内版「星流Agent」终于来了,无需邀请码,直接上手体验,无限画布,用嘴“设计”~

————

分镜脚本 + 视频合成,F.1 Kontext等等多模型自动调用,一键生成结果,分享跑的部分case~

官网👉🏻 www.xingliu.art

Lovart国内版来了!星流Agent,无需邀请码,直接“用嘴设计”,这才是人人可用的生产力

20
甲木未来派
13天前
「信息平权」或许是科技向善最动人的体现。
最近不少朋友都在问我:“能不能用AI帮孩子做高考志愿填报?”
正好发现「腾讯元宝」新推出的功能挺实用,免费且功能全面,正好切中了这个痛点。深度测评了一番,确实能够减少大量信息搜集的时间..

-----
整理了一套提问模板分享给大家,可以转给有需要的人~

别再只盯着分数线!手把手教你用AI挖掘最适合你的大学和专业(附提问模板)

00
甲木未来派
18天前
上下文工程(Context Engineering) =
提示工程 {指令上下文, 知识上下文, 操作上下文}

其中:
- 指令上下文 = 提示词 + 记忆 + 少样本示例
- 知识上下文 = RAG + 检索 + 记忆
- 操作上下文 = 工具调用 + 环境反馈 + 状态管理

歸藏: 聊一下最近圈子热议的话题 Shopify CEO 和Andrej Karpathy 都同意的观点:提示工程的名称是否应该改为上下文工程 主要包括: - 各路大神的观点 - 为什么上下文工程如此重要 - 上下文工程的三大策略 - 其他实践经验与建议 完整的文章在这里看,这里发一下文章的总结:https://mp.weixin.qq.com/s/wWR-1lLMhJ9OTj62JXaM_g 近期AI圈热议“提示工程”是否应更名为“上下文工程”,因为后者更准确地描述了为大模型(LLM)提供任务所需全部信息的工作。 Shopify CEO Tobi Lutke 和 Andrej Karpathy 等人认为,“上下文工程”更能体现工业级LLM应用中对上下文的精细管理和填充。 上下文工程不仅仅是写好提示词,还包括任务描述、样本、RAG(检索增强生成)、多模态数据、工具、状态、历史和信息压缩等。 上下文工程的重要性 Cognition 和 Anthropic 等公司在多Agent系统中强调上下文管理的重要性。 不充分的上下文会导致Agent工作不一致,过长或不相关的上下文会增加成本、降低性能。 多轮对话中,指令遵循性下降,优化上下文长度和准确性尤为关键。 上下文工程的三大策略 1. 压缩(Compression) 目标:每轮对话只保留最有价值的Token。 方法:上下文摘要(如Claude Code自动压缩、Cognition用微调模型压缩)。 难点:高质量摘要难以实现。 2. 持久化(Persistence) 目标:构建可长期存储、保存和检索上下文的系统。 存储方式:文件(如CLAUDE .md)、嵌入式文档、知识图谱等。 保存策略:用户手动或Agent自动生成/更新记忆(如Reflexion机制)。 检索方式:直接加载或基于嵌入向量/图检索,需防止检索出错导致“跑题”。 3. 隔离(Isolation) 目标:在不同Agent或环境间划分上下文。 方法:结构化上下文模式(如Pydantic模型)、多Agent分散上下文、环境隔离(如HuggingFace的沙盒环境)。 多Agent系统可提升性能,但也带来Token消耗和协调难题,适合可并行化任务。 实践经验与建议 工具先行,优先关注数据和Token追踪。 明确Agent状态,梳理运行时所需信息。 在工具边界处进行上下文压缩。 从简单记忆功能做起,逐步优化。 多Agent方案适用于可并行化任务,但需注意协调难题。 结论 上下文管理是构建健壮AI Agent的核心,需在性能、成本和准确性间平衡。 上下文工程是一门平衡的艺术,良好的语境和清晰表达需求是获得优质LLM输出的关键。

21
甲木未来派
19天前
真实且深刻,就是这个样子的🤣

-大雨-: 今天和客户在办公室,聊AI编程的落地。 技术上没问题,模型能生成代码,插件能帮你写测试,Deepseek。cursor已经能代替很多程序员完成很多日常工作。 但客户一句话就把我们拉回现实: “现在还不太行。” 不是AI不行,是企业组织结构还在“手工时代”。 企业不是缺AI,而是缺“可被管理的AI” 客户提了两个核心诉求: 1. 统计AI使用率:谁在用?用了多少?用得比别的团队多吗? 2. 分析代码采纳率:AI写了多少行?最终团队采纳了多少?有没有提效,能不能写进OKR? 这背后的逻辑非常清晰: AI,不是用来提效的,是用来汇报“我们也在用AI”的。 这不是个笑话,这是企业治理现实。 AI提效 ≠ AI落地 企业落地AI的第一性原理,从来不是“技术能力”,而是“可控性”。 你部门可以不提效,但必须可统计、可分析、可审计、可打分。 如果AI的使用没有被纳入管理体系——那它就像个“自由职业者”,看着很强,但不能进年终绩效表。 而一旦纳入体系,它就成了“工具”,需要数据闭环、责任归属、横向对比、纵向趋势——否则无法监管。 所以本质上,AI落地不是科技问题,是生产关系的改造成本问题。 这就是生产力与生产关系的典型错位: • AI技术(生产力)快速演进,工具层出不穷 • 企业制度(生产关系)仍在用旧有框架打分考核 技术飞跃的不是人,而是工具。 人还被框在原有的绩效体系里,必须用KPI证明AI“有用”,才能真正“落地”。 AI真正的门槛,不在模型、不在工具,而在组织: 一个组织是否准备好接受“非人的能力”? 是否准备好打破原有的绩效与责任链条? 这才是今天客户来找我们的真正原因—— 不是为了用得更聪明的AI, 而是为了让AI“更好地被管起来”。 ⸻ 对此,你咋看,欢迎留言表达你的看法

00
甲木未来派
19天前
AI硬件果然是必争之地,「出门问问」推出国内版TicNote,试用了一个月,AI转录和思维导图都还不错。「顿悟」是个good idea!建立一个自己的日报系统还是挺新颖的。

发布会李老板谈了谈自己AI编程的历程,提出自己对于智能本质的理解和Agent相关思路和想法,分享的风格非常抽象hh

各家都开始在AI硬件上发力了!
64