即刻App年轻人的同好社区
下载
App内打开
耐雪的猹
36关注642被关注0夸夸
做自动化设备,研究效率学方法论和工具。
最近在专注做减法。Be a problem solver, not a problem adder
置顶
耐雪的猹
4月前
喜欢里斯本。想它的第730天。
00
耐雪的猹
4天前
我要是做其他事也有这样的毅力就好了
00
耐雪的猹
4天前
这就是一份现成的 agents.md

ChatV: ⭕ 团队沟通 20 条 --- 01. 开工前先对齐规则,比中途扯皮效率高十倍。 > 别急着开工,先把谁拍板、啥格式、周几碰头这些琐事定好。前面花五分钟对齐,后面能少吵五十分钟的架,真不亏,还能避免互相甩锅。 02. 布置任务要具体,“做好”不如“周五前给三版方案”。 > 说“做好”等于没说,对方听完还是懵的。直接告诉他周五下班前要三个方案,A4 纸打印,照着这个格式来,这样他才知道劲儿往哪使,不会做出来根本不是你想要的。 03. 一次传递的信息别超过三块,多了人记不住。 > 人脑就那么大内存,塞太多肯定漏。要么拆成三次说,要么写张便签,别指望对方能全记住,最后漏了关键信息还得返工,来回折腾更麻烦。 04. 先说结论,再说为什么,最后给细节。 > 大家都忙得要死,先给答案让人安心,有兴趣再听过程。别铺垫半天还不知道你要干啥,手机都刷三遍了,谁有耐心等你慢慢绕,直接说重点最实在。 05. 想要什么样的成果,直接给例子,别用“专业感”、“大气”这种虚词。 > 你觉得大气我觉得土,扯不清。不如甩个参考图或竞品链接,一眼就知道对不对味,省得来回改三遍,大家都轻松,设计师也不会骂你虚空需求。 06. 复杂项目拆成阶段,每走完一步确认一次方向。 > 船大难掉头,拆成小段随时能纠偏。别闷头干两个月,最后给人看发现全错了,那才真崩溃。每阶段对个眼神,错了也能及时止损,不至于全军覆没。 07. 交代任务时,把背景和目标讲清楚,执行的人才知道灵活应变。 > 光说“把表做了”真没用,告诉他为了算成本还是做汇报,遇到数据不全时他才知道该保哪头。信息给全了,人家才好见机行事,不会死磕一个破数字。 08. 验证理解时,让对方复述或选择,别问“听懂了吗”。 > 问“听懂了吗”没人好意思说没懂,都点头。让他用自己的话复述一遍,或者选 A 还是 B,真假一听就明白,省得后期做出来南辕北辙,那时候改都来不及。 09. 请示或讨论时,带两个以上选项去,降低对方的决策成本。 > 别抛个问题让领导想,带上你的方案和利弊,对方只要拍板或二选一就行。这样效率最高,也显得你真动过脑子,不是甩手掌柜,领导也省得猜你心思。 10. 汇报时展示思考过程,不只是结论,让人看到你是怎么推出来的。 > 结论就一句话,但你怎么排除的其他选项、考虑了哪些坑,这些逻辑让人放心。说清楚了,领导也知道你不是拍脑袋决定的,后面出问题也不会全赖你头上。 11. 做重要决定前,主动换几个角色看问题,比如用户视角、对手视角。 > 别只站在自己位置想,换成用户会觉得爽吗?对手会怎么搞你?换个角度能发现很多盲点,不然容易自嗨,做出个只有自己觉得好的东西,市场根本不买账。 12. 提案时主动说风险在哪,比被问到时再答更让人放心。 > 自己先坦白“这里可能延期”,反而显得靠谱。等别人问出来,就像在隐瞒或没想全,信任感直接掉光,后面你说啥人家都打个问号,合作关系都搞僵了。 13. 用数据开场,用感受收尾,顺序别反了。 > 先摆数字显得有依据,最后说“我觉得挺有信心的”拉近距离。反过来先抒情再数据,会显得特别情绪化,像在卖情怀,专业感直接没了,像个搞传销的。 14. 给信息时标注时间,“这是上周的数据”和“这是刚出的”区别很大。 > 数据会过期,标清楚时间点对方才知道参考价值。别让人拿着上周的库存量做今天的采购,到时候买多了买少了,锅还得你来背,多冤啊,明明一句话就能避免。 15. 周期长的项目,中间设几个复盘点,别等最后才发现跑偏。 > 长途开车得看导航,大项目要设里程碑。走到三分之一停下来看看方向对不对,比到终点发现去错城市强,那时候油都烧完了,哭都来不及,只能将错就错。 16. 征求意见时,给结构化的反馈方式,让人容易说真话。 > 别问“你觉得怎么样”,对方只会说“还行”。改成“1-10 分打几分”或“哪部分最困惑”,才能挖到真意见。开放式问题太泛,人家懒得想,也怕得罪人,净说场面话。 17. 允许中途喊停修正,比硬撑到底然后翻车强。 > 发现错了及时止损,面子真没项目重要。硬撑到底最后搞砸了,不仅你背锅,还浪费全队时间。中途喊停不丢人,翻车了才真丢人,大家都得跟着你遭殃。 18. 关键决策前,强制自己听一个反对意见。 > 找个人唱反调,哪怕最后不采纳,也能逼自己想周全点。盲目自信的时候最容易掉坑里,多听听不同的声音,起码知道坑在哪,摔得轻点,不至于死得太难看。 19. 写文档写邮件,先问自己:对方扫一眼能抓住重点吗? > 加粗、分段、把结论放最前面,别让人从三段废话里找关键。大家时间都宝贵,一眼看懂最尊重人,也显你专业,不然写再多也是白写,没人看,还嫌你啰嗦。 20. 好的沟通,是让对方不用猜、不用想、不用问,直接就能干。 > 信息给全给准,对方拿起来就能动手,不需要再微信问你“这个具体指啥”。这就是最省事的协作,你省得解释,他省得琢磨,双赢,下班都能早点走。

00
耐雪的猹
6天前
openclaw带了一波节奏,现在轮到大厂们出手了,下一个该是gemini了?
00
耐雪的猹
7天前
吾日三省吾身:
Gemini 计划出好了吗
ChatGPT 架构搭完了吗
豆包们屎山堆满了吗
00
耐雪的猹
8天前
套用一下概念,所以现在到底有多少虾like agent了?
00
耐雪的猹
8天前
第三种非常有用,每天七拜命运三女神看它们互相扯头花

广屿Ocean: 现在依然有很多人用AI的方法是错的… 首先不是说我自己很厉害的意思,只是比如我经常会在一些AI评测博主的评论区看到留言,“这个提示词是什么?” 而真正有好的AI使用技巧的人是不会在评论区等着作者回答的,因为等还是其次,人家可能根本就不会回答… 所以,以下我想分享一些我自己理解的,以及正在使用的“正确的”AI用法: 第一个诀窍,就是万事直接问AI,听起来简单,但其实很多人没转过来这个弯,比如: 要快速学会如何掌握一个AI应用的用法,最快就是直接问它,“我应该怎么使用你?”; 看到别人生成的一张照片好看,想知道提示词,直接发给AI问,“我想要一张这种类型的照片,提示词是什么?”,然后还可以直接在AI给你的提示词上面修改; 甚至是使用Agent模式让AI直接完成某个任务。你就直接问AI你要实现什么功能/报告/作品,然后问AI,“我应该在下一步Agent模式输入什么提示词才能实现这个功能,直接给我提示词。”,然后在AI给你的提示词上直接修改,或无需修改就切换成Agent模式,直接输入AI给你的提示词,让它开始跑任务… 第二个诀窍,就是不要试图一次输入提示词就拿到完美结果,而是要反复追问 这个使用技巧和用AI进行简单的生活快问快答不一样,适用于深度研究或做某个领域的调研。当你不断地针对AI的答复继续深入提问。当对话链条拉得很长,比如来回10个回合以上,你对这个专门话题的了解就已经超过了绝大部分的科普者 再比如你对某个领域的调研,可以先直接问AI“我是一个投资机构,想要了解XX领域,该从哪些维度去进行调研?”,然后将AI的答案吗,直接输入AI让它根据自己给的提示回答,然后你在它的回答之上反复进行细节的追问和优化 —— 最后让它生成一个终极版本的答案 第三个诀窍,就是同时用多个不同AI模型,让他们互相补充和验证 比如你将第一个诀窍或第二个诀窍得到的答案,直接输入另一个或两个AI,直接告诉它这是另一个AI针对某某问题给出的答案,然后让它对这个答案进行1-100分的打分,并且给出扣分理由和修改建议(通常会找出逻辑、数据、事实上的错误) 接着,让AI进行修改并生成新的答案。但是到这一步还没完,你最好在这个版本的基础上进行人工的检查和细节润色 这样,你基本会得到一个排在前1‰的水平的答案,AI使用技巧就达标了 最后,AI有一个很不好的副作用,就是会让部分人变笨(包括传统的高知人群),因为容易造成思考的惰性 其实真正稀缺的是能判断AI工作的完成度,分辨对错。在自己的核心竞争力上反而要避免对AI的依赖 举个例子,你自己的主业工作必须自己定方向写初版,然后可以用上面写到的方法让AI给反馈,但不能“全托付”。就像我写作就是这样 一旦你养成思维惰性,退化的速度会和AI进化的速度一样快。只要一个人不放弃思考和动手,现在的学习环境肯定更好,长得更快 所以,未来人和人之间的分化,可能会接近人与猴子

00
耐雪的猹
8天前
应该说,真正要用上这样的东西多半必须等到AI模型本身“足够好”,就像现在也还可以用iphone x,但iPhone 4要日常用就比较苦难了。but then again,从过去一年的体验来看,这也等不了多久

数字游民Jarod: 这可能是今年最重要的AI新闻,但中文互联网还没什么人聊。 昨天,一家成立不到三年的多伦多芯片公司扔下了一颗核弹。他们不是做大模型的,不是做应用的,而是做了一件听起来很复古的事:把AI模型直接刻在芯片里。 这家公司叫 Taalas。他们做的芯片 HC1,运行 Llama 3.1 8B的速度是 17000 tokens/秒。作为对比,目前业界最快的 GPU 也就 2000 左右。十倍差距。 但这还不是最疯狂的。最疯狂的是,这块芯片只能跑这一个模型。不能换,不能改,不能升级。你买回家,它就永远只会做这一件事:以光速运行 Llama 3.1 8B。 Taalas 的赌注很简单:在这个所有人都追求灵活性的时代,他们选择了绝对的不灵活,换取绝对的效率。 要说清楚这件事为什么重要,得先理解过去几十年芯片发展的主线。从 CPU 到 GPU,再到各种 AI 加速器,所有人都在做同一件事:造一个通用的计算平台,然后用软件在上面跑各种模型。 这条路走到今天,遇到了一个硬边界。模型越来越大,内存带宽成了瓶颈。你把几百亿参数从显存搬到计算单元,这个过程消耗的能量和时间,已经比计算本身还要多了。 Taalas 的思路是:既然你每次都算同样的东西,为什么还要搬来搬去?直接把权重存在晶体管里不行吗? 他们真的这么做了。HC1 芯片里没有显存,没有 HBM,没有复杂的缓存层级。模型的每一个权重都对应着芯片上的特定晶体管,矩阵乘法通过电路的物理连接直接完成。你输入一个 token,电流流过这些预先设计好的路径,输出就是下一个 token 的预测。 这就像录音带和现场演奏的区别。传统芯片是每次都要重新演奏,Taalas 是把演奏录在磁带里,播放就行了。 这种设计带来了几个惊人的结果。 第一是速度。17000 tokens/秒意味着什么?你几乎感受不到延迟。不是"很快",是"瞬间"。有测试者说,按回车的瞬间,答案就已经完整出现在屏幕上,甚至看起来像是预先准备好的。 第二是功耗。传统 GPU 运行 AI 推理需要液冷,一个机柜动辄几十千瓦。Taalas 的芯片只要空气冷却,十张卡加起来才 2.5 千瓦。他们号称能效是 GPU 的十倍。 第三是成本。制造这样的芯片,他们说是传统方案的十分之一到二十分之一。 但代价也是真实的。这块芯片出厂那一刻,它的命运就已经注定。Llama 3.1 8B,就是这个芯片这辈子唯一能做的事。如果明年 Meta 发布了 Llama 4,这块芯片就变成了电子垃圾。如果你发现这个模型有偏见,或者在你的应用场景里效果不好,你不能微调它,不能换别的模型,只能再买一块新芯片。 Taalas 的解决方案是:把定制芯片的周期从一年压缩到两个月。他们和台积电合作,只改变两层金属掩膜,就能为不同的模型生产新芯片。他们声称训练一个模型要花十亿美元,而定制一块这样的芯片只要花一千万。 说到这个团队的背景,确实豪华得有点过分。CEO Ljubisa Bajic 是 Tenstorrent 的创始人,之前在 AMD 和 NVIDIA 都做过架构师。COO Lejla Bajic 是他的妻子,同样是 AMD 和 Tenstorrent 的资深工程师。CTO Drago Ignjatovic 是前 AMD 的 ASIC 设计总监。这三个人加起来,可能设计了过去十年里你用过的一些最重要的芯片。 2022 年,当 Jim Keller 加入 Tenstorrent 并接管公司后,Ljubisa 选择了离开。六个月后,他创立了 Taalas。显然,他和 Keller 对 AI 芯片的未来有不同的看法。Keller 想做一个通用的、可编程的、软件友好的平台,而 Ljubisa 走向了另一个极端:彻底的专用化。 他们刚刚完成了 1.69 亿美元的融资,总融资额 2.19 亿。投资人里有个名字值得注意:Pierre Lamond。这位老爷子是 Fairchild Semiconductor 的元老,红杉资本的前合伙人,被公认为半导体行业的奠基人之一。这样的大佬背书,说明这件事至少在技术逻辑上是成立的。 现在的问题是:市场会买单吗? Taalas 需要找到那些愿意为了效率和成本,牺牲灵活性的场景。比如语音助手,需要毫秒级响应,而且模型不需要经常换。比如数据标注,需要处理海量文本,用的是固定模型。比如一些垂直领域的专用模型,训练好了就不动了。 但也有人不看好。芯片制造是有污染的,如果每两年就要换一批芯片,这比 GPU 的更新换代更频繁,环保问题怎么算?还有人质疑,AI 模型进化这么快,两个月流片时间还是太长,等你做出来,模型可能已经过时了。 更根本的问题是:当 OpenAI、Google、Anthropic 都在拼命证明他们的新模型比旧模型好得多的时候,谁会愿意把自己锁死在一个固定的模型上? Taalas 的反驳是:模型迭代的周期正在变长,人们开始依恋特定的版本。OpenAI 把用户从 GPT-4.5 迁移到 GPT-5 的时候,很多人抱怨新版本太谄媚了。也许未来我们会像对待手机型号一样对待 AI 模型:iPhone 15 出来后,还是有人用 iPhone 14,因为它们各有各的好。 我不知道 Taalas 会不会成功。这可能是一家改变行业的公司,也可能是一个技术史上有趣的注脚。 感兴趣的朋友可以去他们的demo站点体验一下什么是光速级别的inference: chatjimmy.ai

00