即刻App年轻人的同好社区
下载
App内打开
董指导
46关注779被关注0夸夸
畅销书《英伟达之道》译者,“董指导研究”主理人,得到APP“光伏课”主理人、远川研究所原所长,爱好产业观察、精酿
董指导
4天前
Taalas引发争议:AI的端侧时代开启?最近在硅谷和华尔街,都在传一个数字:17,000。

不是道指、纳指,而是 Taalas 这家公司的芯片速度(基于Llama 3.18B):

每秒 1.7 万个 Token。

NVIDIA 的主流方案快了接近 10 倍。 比已经很快的专用芯片 Groq 还要快 17 以上。

而且不需要昂贵的HBM、以及高性能散热组件,成本只有 GPU 的几十分之一。

这很可能意味着,AI 迎来了一个全新的分水岭:端侧商业化普及。

Taalas是怎么实现的呢?

其采用了两个原则:

1、全面专业化:为每个独立模型定制最优化硅芯片;

2.、融合存储与计算:冯诺伊曼结构中,存储和计算分离,就导致二者之间数据交换存在隔阂;AI时代,这种隔阂限制了AI推理发挥。

Taalas则重新设计,基于存储与计算的融合和模型定制化,从底层重新设计硬件堆栈。

比如这一次就是把 Llama 3.18B大模型,直接“刻”在了硅片里。

这样做优势和劣处都很明显。

硬件和模型完全定制,不支持其他模型,甚至模型更新后也不一定能良好兼容。

那不是白费了吗?海外对Taalas的做法也很有争议。

我觉得有两个点:

1、对于场景清晰、需求明确、且 模型已经标准化/ 收敛路径清晰, 那Taalas的方案可以大幅降低成本,从而推动AI普及。

例如一些智能家居、AI小硬件产品。

2、Taalas在打造芯片定制设计平台,希望能实现快速、低成本的模型适配。

总体而言,NVIDIA AI 变聪明了。而 Taalas 们,正在让 AI 变廉价。
价格是 AI 走进千家万户的关键。未来也是 端+云的配合。

Taalas的消息意味着,端侧AI、边缘计算又有了新催化。

Taalas引发争议:AI的端侧时代开启?

00
董指导
6天前
Singapore forrest garden & flower dome:
如果没去过上海辰山植物园,会觉得很惊艳;

但是,一想到辰山植物园又便宜又大又丰富,就忍不住要感叹上海的国际化[庆祝]

真的,外地朋友如果来上海玩,辰山植物园真推荐
20
董指导
8天前
分享一个我收到的非常的春节礼物
阿里云无影发布了一个App:无影JVS,
这是首款基于OpenClaw打造的智能体协作平台
目前还在测试阶段,而我很幸运拿到了邀请码、抢先体验了一把

无影JVS有几大优点,第一个就是非常简单、便捷
OpenClaw是2026年最火的智能体,席卷全球
但也被指责为精英圈的狂欢
因为它的配置过程挺繁琐的,要下载运行环境、配置API、调试等等
即使程序员都要折腾一番,普通人更是麻绳提豆腐,别提了

但是,科技一定要普惠大众的,于是,无影JVS应运而生
你不需要懂任何代码、甚至连大模型API都不需要
只需要下载一个App、手机登陆、给bot起个名字、就自动完成部署,
多个专属的智能体,直接可以干活了
真正的普通人也实现一分钟就上手

而且每个Agent都自带了丰富的技能,可以应对多个场景
而且技能还会不断增加
还有严谨、活泼、幽默等多重属性,满足各种任务需求

比如我先设置了一个严谨风格的内容助理,
希望它每天帮我做好资讯搜集、并推送给我;
下达指令后没多久,它就完成了任务设置,
做好了信息源筛选、并整理好了信息
来看一下,完成度很高
有来源、有时间、有摘要、有要点,
需要详细信息的话可以进一步下达任务

而且,你拥有的不是一个Agent,
而是一组功能、风格不同的智能体成员,互相协作
我下达指令后,运营很快就建好了一个协作群
还整了一个群聊公约,挺好玩的
三个智能体,分别负责信息搜集、内容撰写、图片生成等任务
接到指令后,他们还会互相商量、讨论,
选出合适的选题后再执行写作
整个过程也都可以观测、也可以随时插话打断他们
没多久,文章就完成了
可以同样高效地干下一份活了

很多人使用Agent还有个担心,就是本地信息的安全
而无影JVS采用的是云电脑,未来还会上线云手机
为Agent构建了专用环境,实现安全隔离
既可以完成工作,又不会影响本地信息

据了解,无影JVS后续还具备多节点能力
也能支持云手机和云电脑之间的跨系统执行任务
随时随地、更加方便

无影这份新年礼物,真心地推荐给你
一起轻松玩转智能体
00
董指导
8天前
为什么AIDC耗电量比IDC显著增加这么多?1、核心芯片

传统数据中心以 CPU(中央处理器) 为核心,其设计初衷是处理各种复杂的逻辑任务,功率相对受控(通常在 $200W$ $400W$ 之间)。

AI 数据中心的核心是 GPU(图形处理器) ASIC(专用集成电路)。
功耗显著提高:单颗高性能 AI 芯片(如 Blackwell H200 系列)的功耗已经逼近甚至超过了 $700W$ - $1000W$。

而且,数万个核心同时在高频下满载工作。

2、机架密度

传统机架: 每个机架的功率通常在 $5kW$ $15kW$ 之间。
AI 机架:随着 NVLink 等高速互联技术的发展,为了减少延迟,服务器必须紧密堆叠。现在的 AI 机柜功率普遍在 $40kW$ $100kW$,甚至更高。

同样的占地面积,AI 机房对电力的需求是传统机房的 5-10 倍。

3、“冷却税”

传统数据中心靠风扇吹冷风(风冷)就能解决。但 AI 芯片产生的热量太集中,风冷已经达到了物理极限。

于是,液冷引入。

为了压制 AI 芯片的高温,必须使用冷板式液冷或浸没式液冷。虽然液冷更高效,但驱动庞大的泵送系统、冷机以及换热设备,依然需要消耗惊人的电量。

4、任务模式

传统负载: 比如网页浏览或邮件系统,负载是波动的,服务器经常有“休息时间”。间歇性工作。
AI 训练负载: 一个大型语言模型(LLM)的训练任务一旦开始,数万颗 GPU 就会进入 100% 满载状态,且这种状态会持续数周甚至数月,几乎没有任何停歇。

这种“全时高能耗”是传统业务无法比拟的。

5、存储与网络

AI 不仅仅是计算,还需要海量的数据吞吐。

HBM(高带宽显存): 为了跟上 GPU 的速度,AI 服务器使用了大量的 HBM。虽然它效率高,但在如此巨大的规模下,显存本身的功耗也变得不可忽视。

高速互联: 维持数万颗芯片之间“秒速通信”的光模块和交换机,本身也是发热大户。
00
董指导
13天前
本来已经进入春节放假状态,但早上又看到科大讯飞董事长刘庆峰的年会演讲稿,干货很多,对于理解国内AI、理解科大讯飞都很有帮助。

所以,整理了一些金句、以及我的点评。

我有个直觉就是,可能看到了科大讯飞的“底牌”。

这些底牌,不是刚刚发布的、性能媲美GPT-5的星火X2,也不是那些财务指标,而是讯飞在AI深水区行走近30年后,所积淀出的战略前瞻与定力。

在算力资源、战略使命的要素下,讯飞越来越擅长这场“非对称作战”。也期待2026年这些底牌,转化为公司业绩、股东回报、大众和国家的AI红利。
01
董指导
13天前
如果视野放大一些,这次产品接入,对百度集团也是一次加分项。

AI的技术日新月异,仅靠大厂内部智力资源,是不够的。
对外而言,百度通过开放Skill接口和接入 ClawHub社区,完成了一次研发权力的“众筹”。它不再仅仅依靠内部团队去穷尽所有的应用场景。对内而言,通过对先进产品的接入,也相当于拥有了全球的开发资源,拓展了百度的能力边界。
“内部自研+全球开源智力”并举的模式,会加速百度的迭代进化。
这次开放、主动去中心化,把内部各产品重塑为能力模块,也是在夯实一个心智:百度不是几款App,而是一套AI时代的“动力底座”。当然,这也需要持续和用户、开发者进行互动和反馈。
写到这儿,很多人也会问,既然开放这么好,为什么别的公司不做?因为,开放,不仅需要技术平权的愿景、勇气,也需要底气。毕竟,哪家公司也不希望自己为别人做嫁衣、而逐渐没落。
百度的底气,不仅在于多款搜索、文库、网盘等多款产品依然有着国民级流量,更在于其“昆仑芯+智能云+文心大模型+萝卜快跑/智能体等各类应用”的全栈布局。 2011年成立的昆仑芯,经过持续投入,已经有了行业第一梯队的出货量;去年4月份推出的昆仑芯超节点,采用了自研芯片P800;其自研的X-Link协议,把卡间带宽提升8倍,实现了国内最低的延迟。而单个超节点就支持万亿参数模型训练的天池512,今年也会正式上市。
百度智能云,成为65%央企、100%系统重要性银行及800+金融机构、以及众多厂商的选择。文心大模型5.0,作为原生全模态大模型,在训练方法实现了全模态统一理解和生成,实现了大参数、低成本。
综合而言,根据我多年的跟踪观察:
百度正在“变重”,其全栈布局在AI竞争中越来越有分量;
百度正在“变轻”,开始加大连接、对新产品保持敏感,就像这次接入OpenClaw一样;
百度正在“变厚”,因为它开始将百度App塑造为“万能插座”,在其之上竖立千万产品;
百度也在“变宽”,作为AI动力底座,加大生态的培养。
在AI时代的丛林里,走得最快的未必赢,但连得最广、保持开放创新的,一定能到达终点
00
董指导
13天前
引入OpenClaw,也是有利于用户、开发者、百度App的“一箭三雕”的顺势而为。

百度App依然是7亿月活用户的重要入口,以往是主要是用以搜索;但现在,百度App从“信息搬运工”变身成了“数字指挥官”,将原本散落在生态各处的衣食住行服务,通过Agent的“红线”串联了起来。
设想一个场景,你希望安排一个春节滑雪之旅,在传统模式下,需要在搜索、地图、预定、甚至网盘之间反复横跳,繁琐也累。
而现在,用户只需在百度App里下达一个指令,OpenClaw 就会先搜索雪场实时天气,紧接着自动调取百度地图规划避堵路线,同步调取携程的专业滑雪攻略,并顺手将所有行程单、票据一键归档至百度网盘,甚至可以自助预定支付。
这不仅是一款解决实际问题的高效工具,更让非技术用户(如学生、老年人)也能便捷使用,而且在一个入口就可以满足学习、工作、生活全场景需求。
另外,对于开发者而言,巨头的能力像是锁在深宅大院里的宝藏,想要调用,还得翻过繁琐的API文档、和审核的围墙。
但现在,百度“拆墙了”,将积攒二十余年的搜索、百科、复杂任务研究、电商等核心能力,“原子化”成了标准化的 Skill(技能包),并上线到了OpenClaw社区的技能平台ClawHub。

比如,百度优选官方电商Skill,是OpenClaw生态首个官方级电商能力插件,将百度商品知识图谱与CPS供应链能力封装为标准化工具。这意味着,智能体从此可调用跨平台比价、口碑分析、选购知识等结构化能力,一站式完成从找货到决策下单的全流程电商任务。
开发者再也不用去“重复造轮子”。只需要简单的标准命令,就能让你的 Agent 瞬间拥有百度级别的各项能力。也让 OpenClaw 这种原本擅长“手脚干活”的工具,瞬间接上了一个沉淀了海量中文知识的“外挂大脑”,从“能执行”进一步走向“更聪明、更专业地执行”。
整个过程就像在乐高超市里选购零件一样轻松,开发者就可以将精力、资源投入更有特色的功能开发。
同时,在为用户、开发者带来的红利,也推动百度App实现了角色转换。
此前,百度APP文心助手也已接入近5万个MCP服务,此次OpenClaw的接入,则更进一步。
原本独立的百度旗下、甚至其他公司的后台服务,因为一个具体的场景驱动,同时被激活、联动。这种从“点”到“面”的调度,让用户从“查完就走”转向了“深度关系”。百度App也有望转换为个人助理,并真正将AI进化的权利部分交给用户。
毫无疑问,开放的红利,啥时候都不过时。
00
董指导
13天前
和传统互联网时代追求“封闭、垄断”所不同,AI行业其实是非常需要开放的。

虽然大厂一直在提高模型性能,期待一个通用大模型来解决一切;但残酷的现实却是,单体大模型的能力是有边界的。真实世界却是充满各类碎片化的需求,而且需求还在不断变化、增加。
一款处理通识逻辑的天才模型,但面对特定的财务流程、实验室的数据、或家庭琐碎事务时,可能就是无处下手。
但是,用户期待的是“一个万事皆会的贾维斯”,只通过一个入口、一些对话,就能解决需求。而且,就像常说的,用户不是想买电钻,是买墙上的那个洞;他们也不关心底层模型是什么,而是希望需求被满足。
产品的本质永远是满足用户需求。所以,站在终局来看,一个希望成为用户喜爱的AI入口,其背后不应该、也不可能,只靠一款大模型或者一家公司开发的模型,而是开放包容了各类模型,或者可触达所有Agent。
这就会对竞争格局带来影响:
当大模型性能你追我赶、甚至未来会同质化竞争时,谁能通过开放集成,最快地交付“确定性的结果”,谁就赢得了用户。
百度App接入 OpenClaw,也是站在了前文论述的立场和理念上,回到用户需求、认可“术业有专攻”,让最合适的产品去解决最具体的问题。毕竟OpenClaw作为一种高度可定制的Agent框架,其“执行、交付”能力也已经得到了广泛认可。
另外,开放不只是产品理念,也是AI普及的必然。AI不应该是少数人的红利,而应该是大众的赋能。
OpenClow虽然能力令人惊叹,但也因为配置流程复杂,一度被批评是少数精英的狂欢,和大众无关。所以,百度App支持一键配置OpenClow,也是把技术的复杂性封装了起来,大幅降低使用门槛,提供了普通人也可以即插即用的便利。
也只有如此,AI才可能成为真正的生产力。如果一个系统过于封闭,数据维度不够、算法更新过慢,反而会导致智能的迟钝。
这种平权不仅具有社会意义,也具备商业上的先发优势——谁能先消灭复杂性,谁就能先赢得最广泛的普惠红利。所以,百度选择开放,也是在押注更具有生命力的方向。
不只是百度,整个中国AI行业,也是在践行开放促进发展。尤其我们大模型的开源深得全球用户认可,以致于美国都嘲讽OpenAI变成了CloseAI。
所以,AI需要开放,也需要更多像百度App这样的举措。
00
董指导
13天前
回看支付宝的每一次进化,都是在基础设施层面的重塑:
1.0 时代,推出担保交易,解决了陌生人之间的信任问题,奠定了电商的基础;
2.0 时代,推出移动支付,解决了随时随地的连接问题,奠定了o2o的基础。
3.0 时代推出了AI 支付,正在解决硅基智能与碳基社会的融合问题,也将奠定智能体经济的基础。
虽然这次千问的活动,以下单买奶茶最为出圈,但实际上,AI也可以打酱油了:识别意图、执行交互、完成交易。而且我相信,在AI付的支撑下,智能体的发挥,会越来越出色。
当我们夸赞智能体干得漂亮时,AI付的愿景也就实现了。
00
董指导
14天前
有人觉得支付宝AI付这件事儿,只是一次支付方式的常规技术升级,就像从“刷卡”到“扫码”;但我觉得,远不止此。
扫码只是改变了介质,把磁条变成二维码,而AI付,人可以指定规则让Agent来完成。这个变化,带来的影响有望超越移动支付。
首先,交互逻辑被真正重构。
过去二十年,我们的数字生活被GUI(图形用户界面)所统治。用户需要在菜单迷宫里戳戳点点,才能实现需求。这是人找服务的低效模式。
大模型带来的是向LUI(语言用户界面)的跃迁。设想之下,用户只需要用一句或几句自然语言,就能实现所需,效率自然很高。但从对话到结果,之前卡在支付环节。而支付宝AI付的接入,让期待的交互逻辑重构,真正实现。继而迎来像Windows取代DOS那样的商业变迁。
伴随交互变革而来的,是更深层的信任重构。
陪聊的AI,胡说八道也无伤大雅;但掌控钱袋子的AI,每个动作、每个回应都得精准无误。这便是诸多大模型、AI应用,无法完成交付的原因。因为,用户的信任不够。
对比之下,千问活动让我们看到,一方面,可以通过模型性能提高,降低幻觉,提高靠谱度;另一方面,支付宝AI付,仍然要积极扮演着AI时代“数字守护”的角色。
它不仅仅验证密码,也能基于多年的风控模型,通过验证意图来提高信任:这个指令是否符合用户的习惯?是否超出用户的风险承担能力?等等。
AI时代的支付服务,从“验证密码”到“验证意图”都变得更重要了,需要为AI的“概率性生成”,加上金融级“确定性保障”。

而在人类商业史上,每一次信任技术的突破,也都会带来交易范围的扩大、商业边界的拓展。
15 世纪美第奇家族发明了信用证,引爆了全球贸易;2004 年支付宝引入了担保交易,激活了电商。这一次,支付宝AI付,也不例外。
商业模式的重构也在发生。当下的互联网是注意力经济,巨头们依靠流量贩卖、广告展示来赚钱。但在AI时代,则会失效。
一是AI对话框太窄了,塞不下广告,用户甚至不会看、而是说、然后等结果;二是广告模式和AI的初心不搭,纵然是OpenAI,尝试在回答里植入广告也被嘲讽。
AI时代是“意图经济”时代。商业价值的衡量标准,从吸引用户看多少次广告,变成了为用户办成了多少事儿。
履约能力,胜于流量。交互、信任、履约,这是未来几年会持续看到变化的方向,也成为支付宝面向AI时代的新战场。

支付宝3.0:打造AI基础设施,让Agent进入物理世界

01