即刻App年轻人的同好社区
下载
App内打开
-Will
2k关注25k被关注25夸夸
风险投资基金合伙人
email: will@genventures.xyz
置顶
-Will
8月前
记录📝30 个跑通 PMF AI 产品
3579
-Will
14:50
天晴了,吗
11
-Will
11:03
腾讯元宝接入ds,阿里也和苹果合作,百度文心要开源,都有美好的未来。
00
-Will
09:21
Trump喜欢用"great"这个词来描述很多人和事情,但如果国内媒体总喜欢把这词儿翻译成"伟大"来夸大或者曲解原意,不是坏就是蠢,这个词很可以很精准,stupid。
01
-Will
2天前
加强白领,进度条xxx
替代白领,进度条xxx
加强蓝领,进度条xxx
替代蓝领,进度条xxx
00
-Will
2天前
当年的“互联网思维”到底是什么?

“互联网思维”在2010年代初成为热门概念,强调以互联网为核心进行商业创新。主要包括以下几个方面:

1. 用户至上:关注用户体验,强调用户参与、用户共创,甚至免费模式(如羊毛出在猪身上,由第三方买单)。

2. 流量为王:核心竞争力在于获取用户流量,通过低成本获取用户,利用数据驱动增长。

3. 平台化和生态构建:建立开放平台,让更多开发者、商家或内容创作者参与,比如淘宝、微信生态。

4. 去中心化与扁平化:削弱传统企业的层级结构,让信息和决策更高效流动。

5. 快速试错与迭代:小步快跑、快速上线、MVP(最小可行性产品)验证市场需求。

6. 颠覆传统行业:以技术驱动变革,如滴滴颠覆出租车行业,Airbnb改变酒店业。

这些思维在移动互联网时代非常有效,推动了BAT、TMD等企业的崛起。

---

哪些适用于AI时代?

1. 用户至上仍然有效,但用户需求的理解方式发生了变化——不再是单纯的流量,而是更深层次的用户理解和个性化。AI通过大模型可以更精准地理解用户需求,提供超个性化服务。

2. 数据驱动依然重要,但AI时代的核心是“智能驱动”,数据只是燃料,更重要的是如何训练模型,使其真正提高生产力。

3. 生态构建仍然适用,但角色可能发生变化。比如,AI大模型提供基础能力,更多开发者基于大模型开发应用,而不是从零开始建立平台。

4. 去中心化的方式不同,区块链与AI结合可能带来新的分布式计算和数据确权模式,但AI训练的算力需求又天然倾向集中化,形成新的“中心化+去中心化”格局。

5. 快速试错仍然重要,但AI开发成本更高,不能像互联网产品那样“先上再说”,安全性、伦理性等新挑战要求更谨慎的测试流程。

---

哪些不适用了?

1. 流量思维已经过时:AI更关注效率、质量,而不是单纯追求用户规模。比起获取流量,AI企业更需要优化模型、提升精准度。

2. 免费模式难以持续:AI的计算成本极高,免费模式在AI时代更难维持,越来越多企业采用订阅制或API收费。

3. 单纯的“连接”不再是竞争力:互联网思维强调“撮合”供需(如美团、滴滴、淘宝),但AI本身就是价值创造者,直接提升生产力,而不仅仅是提供信息匹配。

---

需要新的思维范式吗?

是的,AI时代需要新的思维方式,我们可以称之为“AI思维”或“智能时代思维”,它包含:

1. 模型优先,而非流量优先:企业的竞争力在于AI模型的能力,而非单纯的用户规模。

2. 数据资产化,而非数据开放:数据的质量、标注方式、产权界定变得更加关键,企业越来越重视数据的独占性。

3. 人与AI的共生,而非单向服务:用户不再是被动接受,而是AI的合作者、训练者,用户交互方式更加复杂。

4. 算力和能源成为关键资源:互联网时代主要关注带宽和服务器,AI时代则需要关注算力(NVIDIA、华为昇腾等)和能源消耗。

5. 伦理与监管前置:AI的社会影响远超互联网,需要在产品设计之初就考虑隐私、安全、公平等问题。

总体而言,AI时代不再是单纯的“连接一切”,而是“智能驱动、生产力提升、人与AI协作”的新范式。

-Will: 当年的所谓互联网思维,到底是什么思维? 哪些适用于AI时代,哪些不适用了? 需要新的思维范式了吗? (已问过AI)

35
-Will
2天前
当年的所谓互联网思维,到底是什么思维? 哪些适用于AI时代,哪些不适用了? 需要新的思维范式了吗? (已问过AI)
14
-Will
3天前
浏览器默认开着的三个tab: ChatGPT Deep Research, Devin, Perplexity (R1)
10
-Will
3天前
所有投资行为都是预测行为。
21
-Will
4天前
SFT(监督微调)

**定义**:通过人类标注的高质量数据对预训练语言模型进行精细调整,使模型学会特定领域的表达方式和任务规范
**比喻**:就像学生在通识教育后参加专项培训班,老师逐字逐句纠正作业,让学生掌握特定技能(如法律文书写作或诗歌创作)

---

RL(强化学习)

**定义**:通过奖励机制引导AI自主优化决策,模型在试错中学习最大化长期收益的策略
**比喻**:类似训练宠物狗,做对指令给零食,做错不惩罚但也不奖励,最终狗自发学会最佳行为模式

---

CoT(思维链)

**定义**:要求模型将复杂问题拆解为多步推理过程,通过中间步骤提升最终答案准确性
**比喻**:如同数学老师要求学生写出解题步骤而非直接报答案,通过检查过程纠错(例如:"先算乘法再算加法")

---

Distill(知识蒸馏)
**定义**:将大型模型的知识压缩到小型模型中,通过模仿输出概率分布而非简单复制结果
**比喻**:顶尖大厨(大模型)将招牌菜的秘方简化为家常菜谱(小模型),普通人也能做出相似味道

---

GRPO(组相对策略优化)

定义:DeepSeek团队提出的强化学习算法,通过组内对比替代价值网络评估,直接利用多组回答样本的相对优势优化策略。

比喻:就像篮球训练中,教练不设定固定得分标准,而是让队员分组对抗。每组比赛中,得分高于队内平均分的球员获得额外训练资源(强化优质回答),低于平均分的调整训练计划(弱化低效策略)。这样既无需聘请专业评分员(省去价值网络),又能动态优化团队整体水平。

---

PRM(过程奖励模型)
**定义**:对推理过程的每一步单独评分,而非只评估最终结果
**比喻**:作文老师不仅给文章总分,还逐段批注优缺点(如:"开头精彩,但中间论据不足")

---

MCTS(蒙特卡洛树搜索)
**定义**:通过模拟多种可能性路径并评估收益,选择最优决策路径的算法
**比喻**:棋手在落子前脑内推演:"如果走这里,对方可能怎么应对,最终胜率如何"

---

MOE(混合专家模型)
**定义**:将模型拆分为多个专家模块,根据输入内容动态激活部分专家
**比喻**:医院分诊系统——感冒患者由呼吸科接待,骨折患者由骨科处理,避免所有医生同时看诊

---

MLA(多头潜在注意力)是DeepSeek团队提出的**低秩键值压缩注意力机制,通过将传统注意力中的键值(Key/Value)矩阵投影到低维空间,减少93.3%的显存占用。其核心是用动态压缩技术保留关键语义信息,同时将128K上下文推理的显存需求从16.8GB降至1.1GB,计算量减少82%。

比喻: 就像学生用荧光笔划重点时,先把整页内容浓缩成几个关键词(低维压缩),再根据关键词之间的关系分析文章逻辑(潜在空间计算)。这样既不用反复翻书(减少显存占用),又能快速抓住核心思想(保留关键信息)。

---

FP8(8位浮点训练)
**定义**:使用8位浮点数替代传统16位格式,降低显存占用和计算需求
**比喻**:搬家时用真空压缩袋装羽绒服,体积缩小但衣服本质不变

---

MTP(多令牌预测)
**定义**:同时预测后续多个token而非逐字生成,提升文本连贯性和生成速度
**比喻**:音乐家不是一个个音符创作,而是先确定主旋律再填充和弦

---

**技术关联示例**:
DeepSeek R1 Zero直接用RL训练时[5],就像学生跳过刷题阶段(SFT),直接通过模拟考试(GPRO规则)和分步批改(PRM)提升成绩,同时用压缩笔记(Distill)和分工学习法(MOE)提高效率。
49