即刻App年轻人的同好社区
下载
App内打开
flytoufu
257关注95被关注0夸夸
flytoufu
1天前

托马斯骆: 讲句公道话:Kimi 的很多公关策略是聪明而且 cutting edge 的。比如三名联合创始人在K 2.5发布后上 Reddit 做 AMA;比如让 Zhilin 在中关村论坛上以主持人的身份出现在讨论环节,彰显他的思考和个人风格,而不泄露 Kimi 目前的更多进展和策略;比如被 Cursor 套壳之后的一系列应对和 X 的公开发声,甚至包括最早期的出圈营销。他们的 PR 是非常在线的。 这次想效仿 Cursor 开放给媒体“卧底”三个月,写出一个 inside story 也很好,在国内还是挺耳目一新的,但是操作上.....一言以蔽之,找错了媒体和作者,以至于出现了朝鲜式报告文学的名场面。 ​ 100小时跟100天是没法比的。100天,很多东西是一定会自然而然地流露和暴露的,一定会发现不少接近真相的原生素材。但100小时(还不敢确认是不是按24小时一天算上的),是非常容易营造出“领导检查工作”或“公开课”的场景的,它不可能离真相太近。 这其实也不要紧,做 wrapper 的 Cursor 和做基模的 Kimi 需要保护的内部信息不是一个量级的。但理想状况是,即便安排了有限的会议和交流,这也应该是一篇反应 Kimi 独特且令人舒适的企业文化,以及竞争力的文章,新鲜、盎然、聪明、充满希望,而不是肉麻、矫情、夸大和哽咽战栗。 ​ ​这就像是一个对 AI 一无所知的文科生初入一家新锐 AI 独角兽,then brain has been totally mind fucked,开始泛滥式激动和抒情,夸大每一个细节,强行战栗,最后变成了朝鲜式的报告文学。我倾向于相信人物杂志这篇文章开头说的:这是篇没有报酬的文章(Kimi 的 PR 策略确实也不是撒大钱),但它是怎么写出收了100万的效果的呢?我真希望人物杂志是收了这笔钱的啊。 ​ ​我越来越觉得机构媒体是非常落后的产能,尤其是先天不足后天没劲儿的中国所谓做调查新闻和非虚构写作的媒体。AI 素养基本为零,再加上原生业务能力的全面退化,最后就搞出了个这。

00
flytoufu
1天前

阑夕ོ: 就在DeepSeek V4山雨欲来的前夜,晚点LatePost的更新爆了不少料: - 最近半年,DeepSeek的核心员工,包括DeepSeek第一代模型作者王炳宣、DeepSeek-OCR系列作者魏浩然、DeepSeek-R1作者郭达雅、Janus-Pro贡献者阮翀等人,都被各家大厂给挖走了,更不用说已经在小米做出了成果的前研究员罗福莉; - 尽管如此,DeepSeek依然不怎么卷,同行的每周工作时间都奔着80小时去了,DeepSeek的大多数员工还是遵循着早上不打卡、下午6-7点走人的规律,因为老板梁文锋相信一个人每天高质量输出的时间不会超过8小时,加班疲劳产生的昏庸判断,反而会浪费宝贵的算力资源; - 搞AI和做量化之间的关系其实相当紧密,2016年,DeepMind的创始人哈萨比斯就组建过量化团队,希望能为刚刚脱离Google的公司创收,结果没赚到钱,而幻方则是倒过来的,也是在同一年开始用GPU的深度学习算力去干实盘交易,成功让梁文锋以30岁的年纪实现财富自由,再才组建了DeepSeek; - 2023年的时候,梁文锋小范围见过一些投资人,但提出的构想类似OpenAI和微软的投资协议,投资方需要接受一个回报上限,这在投资者看来是没道理的,所以见完一轮之后,没有任何机构愿意投DeepSeek,而在大模型火了之后,梁文锋把和投资人建联的通道直接关闭了; - 在公司里,梁文锋参与最多的是基模架构工作,然后就是充当不同团队之间的粘合剂,DeepSeek内部鼓励交叉协作,一个团队的周会也会向其他团队开放,这种开放组织很容易被规模扩张给破坏,所以DeepSeek对于核心团队的增加相当谨慎; - 去年以来,外部世界发生巨变,既有DeepSeek-V3/R1的一炮走红,也有竞争烈度的大幅升级,DeepSeek没有加入任何战局,依然在自己重视的效率优化(注意力机制)、架构改进(mHC)和非主流探索(OCR)上面努力,梁文锋甚至招进了一些神经科学和脑科学背景的顾问,对人脑原理兴趣大增; - 这也意味着DeepSeek错过了去年最重要的两条主线,一个是AI Coding,这里不只有商业价值的爆发,还引发了以龙虾为代表的Agentic应用形态,DeepSeek-V3.2完全被其他国产模型盖过了风头,另一个是多模态生成,从GPT-4o到Nano Banana再到Seedance 2.0,全都颠覆性的创造了海量增长,但梁文锋认为多模态「不是智能的主线」; - 外界期待DeepSeek每次出手都能像去年年初那样石破天惊,这可能有些强人所难,也未必是梁文锋的目标,而他也需要稳定团队抗拒财富诱惑的心力,猎头给DeepSeek员工开出2-3倍的薪水,而且这还是建立在DeepSeek本身工资就不低的前提下,确实也有员工做出了跳槽去参与更确定性的、持续参与业界最强模型工作的选择; - 留下的人当然还是占了大多数,他们习惯了相对宽松的研究氛围,也愿意做非竞争驱动的探索,在DeepSeek的价值体系里,原创的排序是要比最强更靠前的,它们本质上并不冲突,有时候实现了原创也就自然实现了最强,但在进入Agentic版本后,工程能力变得更重要了,而这正好进入了DeepSeek没有过多投入的地方; - 于是梁文锋也比较少见的做出了应变回应,最近一段时间,他开始启动了对公司的估值,这意味着可以给团队更有刺激性的财富预期,同时也开始招揽模型策略产品经理,明确要求深度使用过Claude Code、OpenClaw、Manus; - 坚持该坚持的,改变该改变的,至于什么是该坚持的、什么是该改变的,这个判断还是得由梁文锋来拿捏,「奇迹之所以是奇迹,就是因为它不常发生,是小概率事件。在中国这个崇尚竞争和结果说话的环境里,敢于追求独特目标的 DeepSeek 的存在本身,是一个令人惊喜的小概率事件。」

00
flytoufu
2天前

AGENT橘: 字节要被取代了,取代它的是 token。 Karpathy 昨天在推上回了 Python 之父 Guido 一句话: LLM = CPU,Agent = 操作系统内核。 但他补了一个很关键的细节: LLM 处理的数据单位不是字节,是 token。 这个操作系统的运行方式不是确定性的,而是统计性的。 这是一种底层计算的范式转移。 过去六十年,计算机的世界建立在字节上。 一个字符 8 个 bit,精确,确定,不会出错。你写一个 1,存进去就是 1,读出来还是 1。 整个互联网、所有软件、所有数据库,都建立在这种确定性上。 现在 LLM 来了。它的基本单位是 token,不是字节。 token 是模糊的,一个词可能是一个 token,也可能被拆成两个。 它的输出是概率性的,同一个输入跑两遍可能得到不同的结果。 这就像从牛顿力学进入量子力学。 精确让位于概率,确定让位于统计。 Karpathy 把 LLM 比作 CPU,Agent 比作操作系统内核。 如果顺着这个类比往下推: 传统计算机:CPU 处理字节 → 内核调度进程 → 操作系统服务用户 AI 时代:LLM 处理 token → Agent 编排任务 → AI OS 服务用户 底层的数据单位变了,上面的一切都得跟着变。 操作系统要重写,软件要重做,人和计算机的交互方式要重新设计。 与其说是对上一代的升级,不如说是彻底换了轨道。 字节的世界里,谁掌握更多的数据(字节)谁就赢。 token 的世界里,谁掌握更多的 token 谁就赢。 字节的时代属于互联网,token 的时代属于 Agent。 BYTE ERA ➤ TOKEN ERA

00
flytoufu
2天前

Edward.Luo: 最近每天烧几亿 Tokens,做了一款很有趣的 Mac「灵动岛」App - 👾 Vibe Island. Vibe Island 的灵感来源于我在 Vibe Coding 会同时开 5-10 个对话跑不同的任务,经常切着切着就忘了刚刚那个对话跑到哪了...任务做没做完、需不需要我审批等等问题。 感觉人类大脑的上下文窗口已经远远不够用了。 于是,我就给这些 Agents 造了一座灵动岛! 装上 Vibe Island 之后:Mac 刘海区域会展示各种 Agents (Claude Code / Codex / OpenClaw 等等)的实时工作状态: - 当 Agent 需要权限审批或任务完成时,灵动岛会自动展开,不用切回终端就能操作 - 面板聚合了所有正在运行的 Agents 对话,点击卡片,精准跳回到会话所在的终端界面 - 所有状态都配有定制化的 8 bit 像素风游戏音效,狠狠提升了 Vibe Coding 的氛围感 灵动岛是一个极其优雅的形态:既能展示后台任务的状态,又不打扰前台正在进行的任务,它只在需要你注意的时候弹出,不用切换应用就能完成轻量交互,还带有一点陪伴感。 其实最早这个 App 只能触发右上角的系统通知,后来发现只做通知远远不够,实际应该解决的是:如何在恰当的时刻,以最小的摩擦,把注意力带回到正确的位置。 欢迎前往官网下载体验: 🏝️ https://vibeisland.app/ 最后 感谢我的各种卷王朋友们 @西西弗森 @埃隆噗大可 @杨远骋Koji @Kenny_肯尼 @达尔文地雀 @白日梦想家Vivi @碎瓜 @zzzhizhi …一路以来的支持和疯狂鼓励!

00
flytoufu
5天前

Barret李靖: 编程,正在变成一件几乎不需要消耗专注力的事情。 你不再需要长时间盯着屏幕推敲实现路径,也不再需要在脑子里反复模拟执行流程。尤其是在从零到一的阶段,做一个只服务自己的小工具,写一个解决当下问题的产品,这种变化最明显。把需求讲清楚,让它生成,跑起来,能用就行。不满意,再来一版。软件从“需要被设计好”,变成“先被生成出来”。 更微妙的变化,是控制权的转移。起初我们在定义问题,后来在修正答案,再后来,开始顺着它的思路往下走。那句“你这个思路继续展开”,说多了之后,人会慢慢放下判断,转而去筛选。经验没有消失,但它的使用方式变了,从提前定调,变成事后挑选。AI 会不断给出路径,它不太在意路径之间是否统一,它更在意能不能把事情做成。 这也是边界开始出现的地方。AI 在从零到一的生成上非常激进,但一旦进入长期维护,它就开始失控。它的目标很直接,把当前问题解决掉,于是会不断引入新的结构、新的依赖、新的路径。局部看都成立,整体却在变形。系统的复杂度没有被消化,只是被一层一层覆盖。时间一长,代码会“写飞”,稳定性和可维护性被悄悄透支。 于是你会看到一个很清晰的分裂。一边是个人工具、一次性产品,被压缩到极致,从想法到可用,只需要很短的时间,软件像内容一样被生产和消费。另一边是复杂系统,依然需要架构、需要约束、需要人去维持边界,AI 还没有能力吞掉这部分复杂度。 软件在加速蒸发。 1. 在从零到一、为自己而生的场景里,它已经变成即时产物,写出来,用掉,替换掉,不再积累历史,不再追求长期形态。软件在这里变得越来越轻,也越来越不值钱。 2. 而真正有重量的部分,留在系统里。留在那些需要长期演化的结构、需要被约束的复杂度、需要被持续看住的边界里。AI 可以不断生成答案,但系统这件事,仍然需要有人盯着它,让它不至于在“不断做成事情”的过程中,悄悄失去形状。

00
flytoufu
5天前

木遥: 刚才跟AI进行了一个很有意思的对话。 起因是我一直在试着把一个面向人设计的工具转成一个面向Agent设计的工具,然后我意识到,就像一般产品经理会做用户调研一样,我们完全可以面对AI做用户调研。 于是我问了 AI 这样一个问题: 你自己就是AI,而且是一个经常需要调用工具的AI。你期待一个面向你的xx工具应该是怎样的? AI 的回答: 确实每天都在调用工具,而且我非常清楚自己的痛点在哪。 我最大的瓶颈:round-trip 成本 每次工具调用对我来说都很贵——不是算力贵,而是延迟和 context 消耗。我调一次工具,要等结果回来,要把结果读进上下文,这占用我有限的注意力。所以: 最理想的 API 是:一次调用能做尽量多的事。一个 round-trip 解决问题。 这就是 AI-native 和 human-native 最根本的区别——人类需要看到每一步、理解每一步;我不需要,我需要高效搜索。 我第二大的痛点:失败时的信息黑洞 当工具返回 "error: tactic failed" 时,我只能盲猜下一步。这是我浪费 token 最多的场景。我需要的是similar_successful_patterns——告诉我「别人在类似目标上成功用了什么」。这对人类不重要(人类靠直觉),但对我极其重要,因为我的搜索是基于模式匹配的。 第三:checkpoint 必须极其廉价 我的工作模式本质上是 tree search——试一条路,不行就回溯。如果 checkpoint/restore 有任何显著开销,我的搜索效率就会大打折扣。理想状态: checkpoint 返回一个 ID,允许随时 restore。 第四:我不需要的东西 这点同样重要。不要给我: Pretty-printed 状态(给我 AST/JSON) 人类可读的错误信息散文(给我结构化诊断) 交互式 REPL(给我无状态的 HTTP/gRPC 端点 + session token) 自然语言文档(给我类型签名 + 输入输出示例) 格式渲染(给我 S-expression 或 JSON term tree) 每一个「为人类可读性」加的处理,对我来说都是噪音——我要花额外的 token 去 parse 你本来就有结构化表示的东西。 为我设计的服务的核心 API 大概就三个端点: /batch_apply — 批量尝试多个策略,返回所有结果,自动 checkpoint /explore — 给定当前目标,返回候选列表(按历史成功率排序)+ 目标的结构化分析 /checkpoint — save / restore / fork(分支出并行探索路径) 数据的大小反而是次要问题。如果这三个端点做得好,我可以在一个基础引擎上也非常高效地工作。如果这三个端点做得差,就算你有海量独家数据,我也会在无意义的 round-trip 中浪费大量算力。 ======== 然后我把上面的 AI(甲)的回答发给了另外两个 AI(乙和丙),它们纷纷表示:说的太他妈对了真的嘴替。 但各自又有补充。 AI 乙: 那个 AI 提到的 round-trip 成本本质上是 Context 熵增问题。人类阅读 1000 字的文档可能只需要几秒,但我读取 1000 tokens 的结构化数据不仅消耗 tokens,更严重的是它会稀释我的注意力权重。 报错即「路标」,而非「结局」 现在的工具报错(如 400 Bad Request)对人类来说是终点,需要人类停下来思考。但对于 Agent,报错应该是探索算法的一个分支。 逻辑偏误修正 那个 AI 提到的 similar_successful_patterns 极其重要。由于我的推理本质上是概率性的,告诉我「怎么做可能是对的」远比告诉我「你现在错了」能更快地让我回归正确的收敛路径。这其实就是 In-context Learning 的即时补丁。 关于 Checkpoint 的论据非常惊艳。 目前的工具链大多假设 Agent 是线性的(Step 1 -> Step 2)。但实际上,复杂的任务需要我们进行类似蒙特卡洛树搜索的操作。 我完全同意它对 Pretty-print 的厌恶 Markdown 表格对人类是视觉盛宴,对我来说是 token 屠杀。 我更希望工具能支持类似 JSON Streaming 或者 Protobuf 的流式解析。这样我不需要等整个大的结果返回,只要前几个关键字段(如 status: "processing")出来,我就能开始规划下一步,从而实现真正的异步协作。 补充一个它没提到的痛点:确定性约束。面向 Agent 的工具应该允许我传递一个 seed 或 consistency_level。我最怕的是:同一个 API 调用,在逻辑没变的情况下,因为后端的微小抖动返回了不同格式的数据。这会导致我的 pattern matching 瞬间失效,引发一连串的幻觉。 AI 丙: 大部分同意。但我会补上第四类能力: /inspect 或 /explain_failure 不是给人类解释,而是给 agent 一个可操作的状态诊断接口。因为 agent 很多时候不是缺 apply,不是缺 explore,而是缺局部判别:当前卡住的根因到底是什么?哪个约束最可能该先处理?当前目标和历史成功轨迹的差异在哪?如果没有这个层,explore 很容易退化成盲搜。 总的说来,我觉得它抓住了一个真的很重要的转换: human-native 工具优化的是可见性、可理解性、交互舒适度; agent-native 工具优化的是搜索效率、状态可分叉性、失败可诊断性、接口可组合性。 ======== 不得不说我从这个对话里学到了非常多东西。

00
flytoufu
6天前

兔撕鸡大老爷: Sora 死了,它曾经是AI视频的神,号称「世界模拟器」,不是技术不行,而是成本、战略、生态、商业化全链路打不过 Seedance。 Sora为什么死? 日均要烧1500万美金,一年54亿,成本高→定价高→没人用→更亏→Sora必须死。 Seedance为什么活着? 字节建了自有云,火山引擎,自研芯片 + 专用集群+内部结算价,再算上中国的电价低,单位算力成本仅是 Sora的一半不到。 还有更关键的。 Sora没字节那样的好生态,亿级短视频、短剧、直播数据,全版权、高标注、强时序、强音画。 Sora都是公开扒全网视频,去谈过合作,版权费奇高,Sora仅仅谈下来了迪士尼一家的三年合约,被吉卜力、万代南梦要求未经授权停止使用其内容训练。 反观Seedance,抖音流量/内容库+剪映工具+字节算力+番茄版权+红果制作,它已经内嵌在了绝佳的生态闭环里。 Sora没生在这么和谐的家族里,还从根上选用了通用世界建模的底层设计,把所有视频 / 图像统一成 “世界状态序列”,目标是理解空间、时间、物理、因果,结局就是,需要调用大量算力暴力平推。 Seedance、Runway、Pika都是短视频生成工具,走的模块化、可控化、场景化的实用路线/轻量化推理。理论上Sora也可以这么剪裁,但相当于重新训练一个新的模型,之前的千亿参数、海量训练数据、工程优化几乎全部作废。 当前的Sora生成1分钟视频成本几百美元(15-30美元算力成本,复杂翻倍,一般10-20次拿到一条满意的),Seedance只需要几块钱,差几个量级。 就算改架构也无法抹平生态差距。 2026年海外AI短剧占比将超40%,其中90% 以上产能来自中国,包括老外主演的那些真人短剧,绝大多数也是在中国拍的。 横店、横琴、杭州、青岛、厦门、郑州、海南陵水、广州番禺、泉州等地方都有短剧基地,建有欧式、美式、东南亚等海外题材专用场景,外籍演员多的要命。 广东横琴有个国际影视城,是中文在线投资的,占地面积17000㎡,94 组海外短剧常用场景,成本远低于在外国拍... 从各方面看,Sora目前都必死无疑,但关停不代表技术路线失败,全球公司都在做“世界模型”与“可控生产”的融合。

00
flytoufu
7天前

奥特快出海笔记: 伊朗战争快一个月了,自始至终我都有个问题:为啥美国好像被以色列牵着走,看上去很难拒绝以色列? 其实国际政治里本来就有一个名词叫“美以特殊关系”,从字面上就说明美以关系非同一般。 比如,美国在联合国安理会动用否决权的83次记录中,有42次使用否决权来否决谴责以色列的决议。美国历史上首个自由贸易协定(FTA),也是1985年与以色列签署的。 美国对以色列的支持也不是一朝一夕。1948年5月14号半夜以色列宣布建国,11分钟后杜鲁门就承认了以色列。艾森豪威尔虽然在1956苏伊士运河危机中逼迫过以色列撤军,但为了遏制苏联在中东的扩张,后来又拉拢以色列成为盟友。肯尼迪反对过以色列研发核武,作为交换向以色列卖防空导弹,不过没多久肯尼迪自己没了,而以色列最终还是开发出了核武。1973年第四次中东战争爆发,尼克松把在美就读的以色列预备役学生和反坦克导弹一起空运到前线,又给以色列续上一命。 从宏观上看,冷战时期,美苏都在中东争夺影响力,所以美国支持以色列也不足为奇。但在微观层面,由于犹太人富商辈出且大量定居美国,导致在毛细血管层面,美以政商关系也是盘根错节。 首先美国科技与传媒界有大量犹太富商,扎克伯格、苏世民、布隆伯格、拉里埃里森、戴尔等都是犹太人。 具有600万成员的美国-以色列公共事务委员会(AIPAC)及其“联合民主项目”(UDP)又是美国最大的美以关系游说集团,在2023-2024年选举周期,两家机构花了近1.269亿美元抹黑反以议员。而且抹黑的方式非常隐蔽,不直接提这些人反以,而是打着其他国内议题的旗号。 比如UDP抹黑纽约州进步派非裔议员贾马尔鲍曼(Jamaal Bowman),把他塑造成“支持削减警察经费的刺头”;针对宾州议员萨默·李(Summer Lee)和俄亥俄州的妮娜·特纳(Nina Turner),指控她们“不是真正的民主党人”。 在科技层面,除了这次战争中美军使用Claude模型进行目标识别和作战推演,《卫报》曾披露谷歌和亚马逊通过1.2亿美元的“雨云项目”(Project Nimbus)为以色列军方提供云计算和AI服务,用于面部识别和人口监控——谷歌甚至还为此解雇了 50多个参与抗议的员工。 而且,在2016年奥巴马时期美以签署《十年期安全援助谅解备忘录》后,逐步取消“本土采购豁免”(Off-Shore Procurement, OSP)条款,要求所有美国对以色列的援助款必须全部买美国武器(以前有26.3%的援助款可以由以色列自行决定采购哪国武器),以至于以色列军工巨头纷纷赴美建立子公司并开设生产线。所以两国军工复合体在供应链层面也是密切绑定。 到了特朗普时期,这些所有关系都更上一层楼。比如2019年3月,特朗普还承认了被以色列占领的叙利亚戈兰高地是以色列领土,这是美国历史上首次,也让美国成为世界上唯一一个这么做的国家。为什么呢?因为特朗普自己及其家族本身就受犹太人影响很大。 在特朗普早年刚进军曼哈顿地产时,他的法律导师就是犹太裔的罗伊·科恩(Roy Cohn)。1973年特朗普家族因住房种族歧视被司法部起诉,科恩作为辩护律师,向特朗普灌输了“绝不认错、强硬反击、赢者通吃”观念,这几乎是后来特朗普一以贯之的行动轨迹。 此外就是特朗普的女婿库什纳是正统的幸存于大屠杀的犹太豪门,他大女儿伊万卡都在2009年皈依正统犹太教,希伯莱名Yael。从疫情前的中美第一阶段贸易协议到撮合以色列与海湾国家缓和的《亚伯拉罕协议》,背后都有库什纳的穿梭活动。 而到了2025年,特朗普更是特赦了当年因为税务问题关过两年大狱取消了律师资格证的亲家公查尔斯库什纳,转头就让他出任美国驻法国大使。原因是法国在历史上是黎巴嫩的委任统治国,对黎巴嫩的影响至今,所以靠着老丈人在巴黎的影响力继续干预中东事务。 简言之,美以关系最早因冷战在中东遏制苏联需求埋下种子,靠遍布美国各界的犹太富商及游说集团推波助澜生根发芽,又因为特朗普的私人家族关系而登峰造极——毕竟美以关系再特殊,历任美国总统也没哪个愣到给以色列抛头颅洒热血…… 以色列要的是什么呢?现任伊朗政权垮台并换上亲以政权。就像米尔斯海默讲的,这需要:1.推翻伊朗现政权;2.确保换上来的是亲以政权。但你都把人炸成这样了,即便有新政权,谁敢正大光明地亲以亲美呢?这几乎是个不可能实现的目标。 慢慢打吧……只是我想海湾国家吹了多少年的安全繁荣flag以及被很多中资作为理想出海目的地的妄念(比如误以为当地人傻钱多),大概是维持不下去了。 图1为特朗普早年发迹时的犹太律师导师罗伊·科恩(Roy Cohn); 图2为触碰哭墙的伊万卡; 图3为特朗普亲家公查尔斯库什纳。

00
flytoufu
9天前

阑夕ོ: Slop和Taste,是AI时代被频繁提及的两个概念。 翻译过来,就是泔水和品味,它们看似针锋相对,但很多时候其实是一体两面。 就像我经常看到,有人刚刚大赞Taste在AI时代有多重要,转头就把一条Slop搬到群里,浑然不觉其中矛盾。 在我看来,AI带来的最大错觉,是让没脑子的人,以为自己也有脑子,而无法分辨区别,是用不用得好AI的分水岭。 什么意思呢? 就用写作来举例吧,AI可以生产70分的内容,但你必须要有90分的能力,才能知道怎样去使用那些70分的材料,如果你只有50分,那就意味着你只能全盘接受,而无从分辨对错。 罗素他老人家说,「这个世界的问题就是,智者充满疑虑,蠢货坚信不疑」,要我说,疑虑的未必都是智者,坚信的一定是蠢货。 AI几乎无限的生产能力带来的另外一个副产品,就是在发的长文底下总有大聪明说这是不是AI写的,不能说完全不糟心吧,就是非常倒反天罡: AI正是靠着我这样的人贡献的语料完成训练——而且我很确信自己的占比——才有了今天的本事,现在倒好,被强夺者被当成了索取者。 我其实很能理解这类评论的用户画像,他们大概率是从来就没有消费长文的能力,在没有AI的时代会说「太长不看」,有了AI之后更会如此廉价化的对待一切无法复现的行为。 一边被漫山遍野的Slop灌成泡芙,一边将所视之物都当作Slop予以简化,这就是我说的,没有分辨能力,就无从判断好坏。 更重要的是,在很多人看来,写作是一件负担,是很辛苦的生产工作,因为自己自小如此,所以便不可能有人把写作视为乐趣,怎么可能会有人主动投入那么多的时间、写这么长的文章,要么是AI写的,要么是有人付钱的商单。 和菜头前段时间也写过一篇文章「机器永不眠」,意思是在写作上去和机器卷效率是毫无意义的,AI可以让写东西变得简单、高效和自动化,但真正让他感到愉悦的,是在写作中遇到的麻烦和困难,以及如何塑造了自己。 「我手里拿着来这个世界的单程票,我想我在最早一定有个什么目的,这个目的一定不是来这个世界上轻松躺着,等机器帮我完成一切。」 是的,机器写作即便成功,大概也留不住读者,这是非常功利主义的实话,如果我真要兜售AI生产的商品,那无异于自断财路的自杀行为,我的每一个客户,都可以自己用AI生产内容,要我做甚。 认知的边界,就是世界的边界,我谈科幻文艺,谈电影和宇宙,就是想分享这些,然后就有人忍不住自证,自己所处的方寸之间,才是天地,你的那些表达,王八念经,不听不听。 而且计量单位也是一个让我很难有同理心的地方,为什么那么多人会对千字篇幅的文本喊长,这是要把大脑寄存到多么贫瘠的荒野里,才会出现的面露难色? 比AI降智可怕一万倍的,是它让人类的降智。 前几天看到祝佳音说,他看到一篇文章用了「不是、而是」的句式,下意识的以为这又是AI写的,然后看到发表日期是在2017年,这才重新陷入沉思。 这也是我说的倒反天罡,我自己有时候都会特别注意,尽量避开「不是、而是」的表达,否则就会和AI「同流合污」了,但这实际上是不合理的,AI把一种经典的文本技巧用烂了用吐了,最后是要人类反过来迁就AI,这对吗?

00