即刻App年轻人的同好社区
下载
App内打开
莫唯书Mark
1k关注3k被关注4夸夸
☯️万物皆虚 万事皆允
🎬抖音/TikTok/DeepMusic/AI
📖Judgment is all you need
🔗莫思Moss
置顶
莫唯书Mark
2月前
我们似乎总陷入同一种错觉:为即将到来的一年设想天翻地覆的剧变,却对接下来十年间,那些细微改变累积而成的深远重塑视而不见。此刻,站在2026年的开端,我们恰恰身处这“高估”与“低估”的缝隙里。潮水并未如预言般汹涌淹至,但它润湿大地的深度,已远超我们的想象。

2026新年寄语:我们总是高估一年而低估十年

10
莫唯书Mark
16:23
虾兵已经来了,蟹将还会远吗?
11
莫唯书Mark
15:57
a16z不久前发布了第六期AI产品百强榜,乍看之下都是数字和排名,但若仔细拆解,则会发现几个藏在数据背后的信号。

一、ChatGPT的平台梦正在成形

报告里提到几个关键动作:群聊(社交网络效应)、应用商店(开发者生态)、ChatGPT账号登录(身份和记忆层)。这三件事同时推进,说明OpenAI的目标已经非常清晰:它不满足于只做一个应用,而是想做下一代互联网的底层账号系统。

这意味着它正在从一个“思考工具”变成“生活服务入口”,这条路并没有错,只是说你将会越来越难在它身上找到当初那种惊艳的感觉——因为想要服务所有人,就不能只服务聪明人。

二、Claude的路线其实更值得关注

报告说Claude聚焦专业用户,应用商店侧重金融数据、科研工具,这是御三家中唯一一家选择往深走的。

如果你在做一个需要深度思考的产品,Claude可能是更好的选择,因为它的整个生态设计都在服务于“把事情想透”这个场景。金融数据和科研工具的共同点是:用户愿意为准确性付费,愿意花时间在一个问题上停留。

三、Agent的爆发点不在技术

报告里有两句话值得画重点:一句是“OpenClaw增长已趋平,尚未突破技术圈层”,另一句是“两年后,任何新产品如果不能立刻认识你,用户就会觉得它坏了”。

这两句话连起来就能看清Agent的下一个战场:记忆。

现在的Agent能做很多事,但每次对话都像第一次见面。它不记得你上周聊过的项目,不记得你讨厌什么风格,不记得你习惯怎么被说服。这种永远在冷启动的体验,会让用户用完即走,不会留下来建立长期关系。

报告预判的“产品冷启动将不复存在”,本质上是在说:未来的核心竞争力,是你愿意把多少“上下文窗口”交给它。它能记住你,你才愿意信任它。你信任它,才愿意让它帮你做更复杂的事。

四、Sora的社交实验失败

报告说AI生成内容导出到TikTok、Instagram后,与人类优质内容竞争处于劣势,纯AI内容社交网络尚未成功。

因为AI生成的内容,是对人类已有内容的二阶压缩,它学的是已有的画风、已有的叙事、已有的情绪。而人类爆款内容的本质,是从真实世界里压出来的一阶压缩:那些细微的、无法被数据化的、只有亲身经历才能捕捉到的东西。

这也是为什么纯AI内容社交网络起不来:它只有压缩包,没有源文件。

五、AI采用率的地理大分裂

人均AI采用率靠前的地区分别是新加坡、香港、阿联酋、韩国,美国排第20,中国和俄罗斯则形成了独立的生态系统,由本土产品主导,报告给出的解释是劳动力结构和信任度差异。

但更深一层看,或许是工具信任和伙伴信任的区别。把AI当工具用,信任门槛低,好用就行。把AI当伙伴用,需要它理解你、记住你、替你决策,信任门槛就高得多。

正如报告结尾的判断:当AI从一个独立产品变成无处不在的功能,衡量它的方式也将不得不随之改变。

毕竟做好AI和用好AI本质上是两件完全不同的事。
00
莫唯书Mark
13:25
这是要大力发展水产养殖业了?俗称Xia海
00
莫唯书Mark
1天前
之前跟鹅厂那边交流的时候,就被问到过基模太拉了怎么办?

其实办法挺多的,要是没啥顾忌的话,哪家强用哪家就行了,等自家的模型跟上来再逐步切。

有所顾虑的话也没关系,在工程和场景上做好文章,基模只要够用就好,关键是要搞清楚不是什么活都适合一股脑扔给LLM去干,通用不等于万能。

看来是听劝了......
40
莫唯书Mark
1天前
FaceBook 之所以收购 MoltBook,无外乎两种可能:

1.姜太公钓鱼,愿者上钩——小扎就是那个FOMO的大冤种
2.醉翁之意不在酒——本质上还是为了招募 MoltBook 背后的“营销炒作”高手

看来当下AI圈的核心竞争力还是“会讲故事”
12
莫唯书Mark
1天前
拉长时间轴看,Manus和OpenClaw都是阶段过渡型产物,跟当初的Musical.ly还不是一个维度和量级的机会

郦橙锦妖Vanessa: 没人觉得我投资眼光很好吗!?可惜差了点运气。

00
莫唯书Mark
1天前
经常自己出去吃的一个好处就是不用洗碗,很少排队以及想点啥点啥
00
莫唯书Mark
1天前
脑子是个好东西:参数够大,算力免费,不耗Token,不占显存,不用排队,终身免维护...

唯一的缺点是:很多人舍不得用
96
莫唯书Mark
2天前
我外甥今年过年总共收到了1万元压岁钱,直接步入ARR六位数俱乐部
42
莫唯书Mark
2天前
AI圈最近又吵起来了。

一边说,压缩即智能。AlphaZero没看过一盘人类棋谱,光靠自己跟自己下棋,就学会了顶尖战术。OpenAI o1不需要新数据,只是让模型多想几轮,推理能力就大幅提升。

另一边说,追逐通用人工智能是错的。婴儿在学会说话之前,早就知道东西会掉、遮挡物后面有东西。这些本事不是看书看来的,是摔出来的。

两拨人各说各话,就像两个盲人摸象,一个摸到鼻子,一个摸到腿。

其实他们摸的是同一头象。

任何智能系统都面临同一个困境:世界的信息是无限的,而自己的脑子是有限的。唯一的解法是压缩,把无数现象归纳为少数规律。

万有引力是压缩,“火会烫”也是压缩。区别只在于压缩的对象不同。

一种压缩,作用在别人已经压缩好的东西上。你读牛顿的公式,背勾股定理,学别人写好的代码。这是站在前人肩膀上,高效但吃的是存粮。

另一种压缩,直接作用在世界本身。婴儿扔一千次东西,才学会“它会掉”。这一千次试错,就是从世界里硬生生压出因果模型。

语言模型走的是第一条路:吃存粮。它把人类几千年压好的压缩包,拆开、学习、再重组。这很聪明,但存粮有限。数据快用完了,模型越做越大,进步的幅度却在变慢。你不可能只靠反复阅读别人的笔记,就变成一个独立的思想家。

另一条路自己压,无论是物理世界还是数字世界,每一秒都有新的交互在发生,新的反馈在产生。一个算法在股市里亏了钱,一个智能体在游戏里摔了跤,一个AI在对话里说错了话,都在逼它从现实世界里直接学习。这条路没有天花板,因为世界本身是无限的。

书里的知识,是别人给你的压缩包。摔出来的本事,是你自己压出的源文件。“交互”的本质就是获取高维度的、非结构化的反馈信号,所以这两条路并非二选一,而是螺旋上升。

婴儿用身体压出常识,科学家用符号压出规律。前者打地基,后者盖高楼。高楼建起来后,又能指导更高效的地基。

没有地基,高楼会塌。没有高楼,地基只能深埋地下。

因此这场争论的真正价值,不在于谁对谁错。它逼我们回答一个更根本的问题:在算力和资金都有限的条件下,究竟该往哪个方向走?

我的答案是:往“交互”这边挪一挪。

今天的AI,不缺那个读遍群书的科学家,缺的是那个会摔倒、会爬起来、会在真实世界里越活越聪明的婴儿。

倘若眼下的这条路,方向从一开始就是错的,等我们撞上南墙再回头可能就晚了。

而“交互”这条路,目前看似笨重、烧钱、回报慢。但它通向的地方,可能是语言模型永远到不了的。
00