即刻App
年轻人的同好社区
下载
App内打开
钱学敏
35
关注
4
被关注
0
夸夸
钱学敏
1天前
Chubby.: Gemini认为这个世界上非常有价值的几类提问方式: 1. 逆向思维类(Inversion) 查理·芒格(Charlie Munger)非常推崇这类问题。它们不问“如何成功”,而是问“如何避免失败”。 * “如果我想彻底搞砸这件事,我会怎么做?” * 价值: 它可以帮你迅速列出风险清单(例如:如果你想搞砸健康,你会熬夜、暴食。那么为了健康,你只需避免这些)。 * “有什么事情是每个人都认为是错的,但你认为是正确的?”(彼得·蒂尔的问题) * 价值: 这个问题不仅用于创业,也用于个人决策。它能帮你找到被大众忽视的“非共识机会”,因为巨大的回报往往存在于非共识的正确中。 * “如果我不做这件事,会有什么后果?后果真的无法承受吗?” * 价值: 很多人因为惯性或恐惧而行动。这个问题能帮你识别出那些“仅仅因为别人都在做”而做的无用功。 2. 维度与时间跨度类(Perspective & Time) 这类问题强迫你跳出当下的焦虑,从更长的时间维度审视问题。 * “未来十年,什么东西是 不会 变的?”(杰夫·贝佐斯的问题) * 价值: 大多数人都在问“未来会有什么变化”,但这会导致追逐风口。关注“不变”的事物(如:客户想要低价、想要快速送达、想要被尊重),你才能将战略建立在稳固的地基上。 * “这件事在5年后、10年后,对我还重要吗?” * 价值: 这是情绪管理的利器。绝大多数让你当下焦虑的事情(如一次争吵、一次小失误),放在时间长河里毫无意义。 * “如果我已经实现了我想要的一切,我会如何度过今天?” * 价值: 这个问题帮你区分“手段”和“目的”。如果成功后你依然想读书、写作、陪伴家人,那你现在就可以做,不需要等到“成功”以后。 3. 第一性原理类(First Principles) 埃隆·马斯克推崇的思维方式,剥离类比,回归物理本质。 * “如果我们不能参考任何现有的解决方案,这件事必须怎么做才是符合物理定律/基本逻辑的?” * 价值: 打破“教条主义”和“经验主义”。例如:电池太贵是因为市场价贵,还是因为原材料本身贵?如果原材料便宜,那中间的差价就是改进空间。 * “导致这个问题的‘根本原因’是什么?现在的方案是在解决问题,还是在解决‘症状’?” * 价值: 避免在细枝末节上打补丁。很多时候,我们忙碌是在用战术上的勤奋掩盖战略上的懒惰。 4. 盲点探测类(Blind Spot) 这类问题用于挑战自我的认知局限,非常痛苦,但成长最快。 * “什么证据能证明我是错的?” * 价值: 人类天生有“确认偏误”(只看支持自己的观点)。这个问题强迫你寻找反面证据,是避免盲目自信的最佳解药。 * “我不懂但我以为我懂的东西是什么?” * 价值: 识别“能力圈”的边界。很多决策失误是因为我们将运气误判为能力,或者将一个领域的经验错误地迁移到另一个领域。 * “我正在回避什么令我痛苦的真相?” * 价值: 心理学家荣格曾说:“你没有意识到的东西,就会成为你的命运。”直面痛苦的真相,往往是解决长期停滞的关键。 总结 这世界上最有价值的问题,通常不是在问“答案”(What),而是在审视“前提”(Why)和“边界”(What if)。 这些问题都有一个共同点:它们不提供情绪价值,甚至会让你感到不适,但它们能极其有效地提升决策质量。 收藏一下,值得记录。
0
0
0
钱学敏
3天前
如何理解用户?
用户不是自然人,而是需求的集合。
0
0
0
钱学敏
6天前
Fishyu95: 一直想在 2025 年结束前,给自己留下一点这一年来对 AI 的思考。 这些想法更多来自真实业务里的反复踩坑,还在不断修正中,也未必成熟,但对我来说已经足够重要。 先记下来,算是一个阶段性的标记吧。 ----------------------------------------------------------------------- 当 AI 开始进入真实业务,最大的问题不是“不聪明”,而是“不知道该记住什么” 过去一年,AI 在组织里的落地速度远远超过我的想象。 几乎所有团队都在做一件类似的事: 把模型接进来,让它“帮我们生成点东西”。 但越往真实业务深处走,我越频繁地遇到一种挫败感: 模型并不是真的不聪明, 而是它在并不知道自己遗漏了什么的情况下, 仍然表现得仿佛一切都已被纳入考虑。 这不是参数规模的问题,也不是 prompt 写得好不好的问题。 而是一个更底层、却被反复忽略的事实: 真实业务里的 AI,失败往往不是因为“不会生成”, 而是因为“不知道此刻哪些信息才重要”。 大多数 AI 工具,仍然活在一个“理想输入”的幻觉里 我们习惯于假设: 需求是完整的 上下文是显式的 文档是最新的 规则是统一的 于是我们设计的系统逻辑是: 只要我把 PRD / 规则文档 / 表格喂给模型,它就能生成正确结果。 但真实世界恰恰相反。 在高协作密度的组织里, 最关键的信息,往往不在“正式文档”中: 它藏在群聊里的一句补充 藏在会议中随口的一句“其实这里要注意” 藏在某个历史问题留下的隐性约束里 这些信息对人类来说是“记忆”, 对 AI 来说却是完全不可见的盲区。 Prompt 并不能解决“上下文缺失”这个问题 这是我越来越确信的一点。 Prompt engineering 本质上解决的是: 如何把“你已经知道的信息”表达得更清楚。 但它无法解决另一个更难的问题: 当你并不知道哪些信息是关键时,系统该如何自救? 在真实业务中, AI 的失败往往发生在这种场景: 输出在形式上完全正确 推理链看起来也合理 但结果却违反了一个“老同事都知道”的业务约束 这不是生成能力的问题, 而是系统对组织记忆的访问失败。 我越来越觉得,RAG 的重点不在 Retrieval,而在 Governance RAG 被广泛讨论,但多数实践仍停留在: 我能不能把文档搜出来 相似度够不够高 Chunk 切得细不细 但在真实场景下,更致命的问题其实是: 哪些信息应该被记住 哪些信息已经失效却仍在被检索 哪些规则只在特定项目 / 特定阶段成立 如果没有治理, RAG 只是在更快地把噪音塞进模型。 从这个角度看, AI 落地的难点正在从“模型能力”, 转移到一个更不性感、但更决定成败的领域: 知识的生命周期管理。 而模型并不知道, 自己正在使用的是一个已经过期的现在。 当业务复杂度超过某个阈值,人类直觉会系统性失效 还有一个经常被忽略的事实: 在多角色、多权限、多状态组合的业务中, 人类并不擅长穷尽边界条件。 我们可以理解大概逻辑, 但在 30+、50+ 条规则叠加时,遗漏几乎是必然的。 这意味着一个残酷结论: 如果 AI 系统只是“执行人类已经想清楚的逻辑”, 那它注定只能继承人类的盲区。 真正有价值的 AI, 不是更快地照抄思路, 而是能在复杂组合中, 反过来暴露人类忽略的角落。 我开始把 AI 看成一种“协作风险缓冲层” 这改变了我对 AI 工具的判断标准。 我不再问: 它生成得像不像人 它能不能一把出结果 而是问: 当输入是碎的、口头的、不完整的,它还能不能工作? 当上下文存在冲突时,它会不会暴露不确定性? 当人类漏掉边界时,它能不能提醒,而不是顺从? 换句话说: AI 是否在替系统吸收复杂度, 还是在复杂度之上制造新的幻觉? 也许,AI 落地真正的分水岭,不是“更强的模型” 而是我们是否愿意正视一个事实: 组织的问题,本来就不是“信息不足”, 而是“信息无法被正确记住、更新和调用”。 如果我们继续假设输入会变干净, 那 AI 只会把现有的混乱放大。 如果我们开始承认混乱是常态, 那么系统设计的目标就会发生根本变化。 我想持续研究的,并不是某个模型或框架 而是这个更底层的问题: 当世界本身是模糊的, AI 系统该如何成为“让协作不崩溃”的一部分, 而不是新的风险源? 因为一旦系统替人类掩盖了不确定性, 崩溃往往不是技术性的, 而是信任性的。 如果你也在真实业务里, 感受过那种 “模型看起来什么都懂,但就是差了那一点点”的时刻, 那我们大概在同一条线上。
0
0
0
钱学敏
7天前
李继刚: 所有的「修炼」就是在做两件事: 1. 「看见」自己所处的约束结构 2. 「突破」这个约束,进入下一关
0
0
0
钱学敏
9天前
zhijie: 过去 2 周,我用 Gemini 3 把 42 本书,分别转化成了网页,用可视化的方式去呈现每本书独有的 Vibe。 不过,我想最近你也看了很多 Gemini 3 做的酷炫的网页,兴许有些厌倦了,更别说是书籍这一让人昏昏欲睡的东西了。 但如果你想要看看兔子洞里面究竟有什么东西,那么洞口在这里: https://www.vibary.art/zh 之所以做这个项目,是源于之前对媒介的思考。不同媒介可以传达不同的信息和感受,在你跟媒介接触的时候,你便能感受到。 如果你想要具体,就去看视频,如果你想要效率,就去刷社媒,如果你想要触动,就去听歌,如果你想要体验,就去玩游戏,如果你想要深入,就去读书。不要抗拒某种媒介。 AI 的存在使得不同媒介之间可以相互转化,人们已做了许多的尝试。而在众多媒介当中,网页这一古老的媒介,总是时不时吸引我的注意力,因此我也在做着不同的实验,去看看我们能用网页承载什么东西。 Vibary 是其中一个粗浅的尝试,我试图把另一更加古老的媒介书籍,转化成网页,看看会有产生什么效果 这个项目有接近10万行的代码量, 99.9% 的代码都是 AI 写的,对于一个只有前端没有后端,且网站的各个部分都相对独立的项目,vibe coding 完全可以胜任。 我会同时开多个编辑器,并行让不同 AI 做不同的事情。sonnet 4.5 负责想一个故事线来讲述一本书,gemini 3 负责设计和前端,codex 负责剩下的脏话累活。 由于代码是AI写的,加上时间有限加上,现在的 Vibary 的内容和体验是不完善甚至有误的,所以游玩时请小心,但请不要恐慌,这个网站基本无害。
1
0
0
钱学敏
9天前
👍🏻
Bolume: 独立开发者≠单干 Ai只是杠杆,Ai不是万能的,号称自己一个人就能扛起一家商业公司是不现实的。 Ai时代公司可能只需要10个人,但这10个是不同领域最专业的人,10个不同专业的人借助Ai就能完成以前100人团队分工协作才能完成事情,提高了效率,放大了价值。
0
0
0
钱学敏
10天前
歸藏: Nano Banana Pro 提示词:任何爱好或者职业的进阶之路 用非常可爱的黏土风格展示不同等级的标准和消耗时间 -------提示词-------- 基于主题 [前端工程师的进阶之路],创作一张 3D 游戏关卡地图海报。 画面结构: 一条蜿蜒曲折的 3D 道路从画面底部延伸至顶部云端,分为三个主要的“关卡阶段”: 底部:新手村 (Level 1: Noob) 模型: 简单的草地场景。放置基础工具。 路标: 插着木牌,写着标题,下方用一段话介绍当前等级的标准。 中部:试炼场 (Level 10: Pro) 模型: 地形变得复杂(森林或岩石)。放置进阶装备。 视觉: 道路变得陡峭,象征难度增加。 路标: 插着木牌,写着标题,下方用一段话介绍当前等级的标准。 顶部:神之殿 (Level 99: Master) 模型: 漂浮在云端的辉煌神殿或高科技实验室。放置终极神器。 视觉: 发着金光,有彩虹或宝箱。 路标: 插着木牌,写着标题,下方用一段话介绍当前等级的标准。 数据与排版:路径线: 虚线连接各个阶段,上面有小脚印。 耗时/成本: 在每个阶段旁边,用游戏 UI 风格的浮窗显示“预计耗时”或“预计金币消耗”。 风格与渲染: 任天堂 (Nintendo) 风格的的粘土风。色彩鲜艳饱和。
0
0
0
钱学敏
10天前
歸藏: 被 Nano Banana Pro 的美学表现震撼!太顶了 一键生成任何影视剧或者小说的场景海报提示词 优化了一下我的微缩场景模型提示词,增加文案部分的效果以及模型周围的特效 没想到适配性这么好,每个场景、文字效果、模型周遭的特效都非常适配小说或者影视剧 比如剑来小说的经典场景,他自动选的陈平安走出骊珠洞天的片段,周围环绕的雾气以及模型周围的球形遮罩真的很像小世界或者洞天 提示词: 请为影视剧/小说《需要添加的名称》设计一张高品质的3D海报,需要先检索影视剧/小说信息和著名的片段场景。 首先,请利用你的知识库检索这个影视剧/小说的内容,找出一个最具代表性的名场面或核心地点。在画面中央,将这个场景构建为一个精致的轴侧视角3D微缩模型。风格要采用梦工厂动画那种细腻、柔和的渲染风格。你需要还原当时的建筑细节、人物动态以及环境氛围,无论是暴风雨还是宁静的午后,都要自然地融合在模型的光影里。 关于背景,不要使用简单的纯白底。请在模型周围营造一种带有淡淡水墨晕染和流动光雾的虚空环境,色调雅致,让画面看起来有呼吸感和纵深感,衬托出中央模型的珍贵。 最后是底部的排版,请生成中文文字。居中写上小说名称,字体要有与原著风格匹配的设计感。在书名下方,自动检索并排版一句原著中关于该场景的经典描写或台词,字体使用优雅的衬线体。整体布局要像一个高级的博物馆藏品铭牌那样精致平衡。
0
0
0
钱学敏
10天前
AI柿子: 一张图收集全网宝藏播客资源!
0
0
0
钱学敏
10天前
DaMing: 给名著名场景配图,挺好玩的
0
0
0