即刻App年轻人的同好社区
下载
App内打开
Edward_Luo
438关注143被关注0夸夸
🧪 一个曾经搞过艺术现在在搞产品的设计师
🤹🏻‍♂️ 合伙 AI 不独立开发
🫠 伪装成完美主义的强迫症
👾 努力成为算法局外人
Edward_Luo
3月前
iPhone 17 Air 真美啊

超薄机身 + 大屏 + 高亮边框
每一次突破过去熟悉形态的长宽高比例变化
都会带来一种高级的形态感
00
Edward_Luo
4月前
以前只会熬夜看 Apple 的发布会,不知道什么时候也开始熬夜看 AI 发布会了。

虽然发布会也没有很好看,叙事平淡、节奏拖沓,但好像比这两年的 Apple 还是要多一些惊喜 🌚
00
Edward_Luo
5月前
展开讲讲 Dia 打动我的 3 个产品细节 ⬇️

Dia 前几天更新了新版本,刚好让我重温了整个 onboarding 的流程。认真体验了一下,抓到了几个很打动我的产品细节,分享一下:

_

▌全屏沉浸式的开箱体验

多数产品的 onboarding 都是随意塞进一个卡片容器里,而 Dia 则突破窗口的边界,以全屏的形式“占领”了整个电脑桌面。
整个动效让背景从透明 渐变过渡成黑色,带入到很沉浸的氛围中。会感觉整个产品是在跟自己对话。

过程中 Dia 没有罗列功能,而是用非常清晰的故事线,由浅入深地串联起 Chat, Write, Learn 三大核心场景。

它还配有精致的背景音乐音效。带一点“史诗感”的背景音开头,然后是层叠向上的连续音阶来烘托情绪,增强了整体的沉浸感。

相比传统的新手引导流程,更像是一种“邀请函”。

_

▌有态度又有人文关怀的文案

印象深刻的是 Dia 引导我把它设置为默认浏览器的那一步。
很多传统浏览器会粗暴的弹窗:“Google Chrome isn't your default browser,Set as default (?我不)”,甚至还会一直挂在正常使用的界面上。

Dia 不一样。除了 Yes or No 以外,Dia 给了我第三个选项。这个选项的文案很有意思:

Maybe, try as default for a week.

就这么简单一句话,一下让我感觉到作为用户有被好好尊重到。

_

还有一个文案细节也很打动我

很多 AI 产品会引导用户补充个人偏好信息,但大部分产品 GPT Claude Gemini 问的方式都过于直接:

“你希望 AI 了解你的哪些信息”
“你希望 AI 如何回应你”

完全没有补充信息的动力。

💡而 Dia 的提问方式,则展现出一种高级的同理心。它说:

- Teach Dia what voice to respond in
- Who inspires you or shapes your taste?
- List people, brands, or products that should influence Dia's taste.
- Share a few writers, public figures or brands you love.

“Teach”这个词一下就修正了我和 AI 的关系。后面的问法也让我从填信息变成了分享我的品味,一下就有了表达欲。自然也就带来了后续极佳的 AI 体验。

_

其实这些细节不太会被大部分用户注意到,但 Dia 依旧愿意用心打磨这些容易被忽略的细节,体现出对用户的尊重,这种态度还是非常值得学习的,可能也是他们能获得那么多死忠粉的原因之一。
05
Edward_Luo
5月前
刚刚看到 Lenny 分享的数据,有点意思:

2025.5 -7月的数据来看,ChatGPT 给他的 newsletter 带来的流量已经超过了 Twitter。
Perplexity 也在同步上涨。

从图中数据能看出几个有趣的点:

1. AISEO / LLM-SEO 确实是个趋势

ChatGPT 带来了 10,161 次浏览,已经超过 Twitter 9,668 次。
Lenny 也回复说,他没有针对 LLM 做任何特别的优化。 这完全是自然流量。

_

2. 但目前 AI 带来的流量付费转化效果差距明显

ChatGPT 1w 流量只带来了 11 个付费订阅,而 Twitter 用不到一万的浏览转化了 121 个。看起来大家目前对 LLM 直接推荐的内容,信任度还是有限。

但和 Twitter 不同,AI 对话大部分应该是搜索意图,主要还是做高效的信息分发,但暂时没法成为一个建立信任关系的平台。

_

3. 对于 newsletter 来说,传统邮件渠道的流量还是远超其他

最传统的邮件渠道依然碾压所有其他来源 - 1500万+ 浏览量,是第二名的 20+ 倍。但不太确定这个 email 具体包含哪些数据来源。本身 newsletter 就是邮件形态,也是用户最习惯消费 newsletter 内容的渠道。

后续可以找时间研究一下 AISEO
00
Edward_Luo
7月前
恭喜!这可能是设计师做独立开发最想获得的奖项之一了,有激励到刚开始探索的我
也侧面展示了苹果的审美 - 抛开对 PMF 的追求, Design Awards 对于苹果意味着什么
- 注重卓越的创意
- 关注看似“简单”设计背后理念的正向社会价值
- 会留意到设计上打磨到极致的细节体验
- 巧妙运用了 Apple 开放给开发者的接口和能力,并将其作为了点睛之笔

DTD: CapWords 获得了 Apple Design Awards 2025 WINNER! 现在还有点不敢相信😭 过程中遇到了很多困难,多亏了梦迪一点点写出来。 和@clu.so 经常一起聊设计、想法和创意,记得当时和他们聊这个想法的时候都觉得非常好,所以业余时间一起为女儿做了这样一个 App。 感谢Apple 和帮助过的朋友们。也感谢一直相信这个小小想法的每一个人。 #WWDC25

00
Edward_Luo
10月前
作为非技术背景的产品同学认真看完了分享,用特别有趣的叙事角度深入浅出的梳理了 DeepSeek R1 背后的整个脉络,有非常多收获!分享一些学习过程中的笔记

⭐️ 最有感触的是为什么做这个分享?
- 最好的致敬是学习,面对如此重大的事件,不应该傲慢的简单归因,而应该深入学习与理解促使该事件发生的根本原因。
- 要学习 hidecloud 从 Diffusion 到 R1 一直以来如何获取信息如何学习的思路,想要理解一件事情/新技术如何发生,要优先看最原始的第一手消息、自己上手体验产品而不是浪费时间看各种社交媒体自媒体的讨论。要有意识的去质疑和验证自己所听到的信息,而不是带着情绪去下结论,才能拥有准确判断的能力。
- 在巨大的创新面前,一切跳梁小丑都显得额外的滑稽。噪音会随着时间消减,但真正包含创造之美的技术报告会对世界产生长久且持续的影响。

🟡 怎么理解”推理“?
- Model needs more tokens to think - 模型需要更多前置的 tokens 来思考。
- 人不可能面对所有问题都知道如何 CoT,能自己构建 CoT 的模型有巨大的价值和潜力。

📌 当业界仍在普遍探索 PRM 过程激励的思路时,DeepSeek 和 Kimi 探索出了另外一条路,Kimi 的 @flood Sung 在 The Thought Process Behind Kimi k1.5 分享了在复现 o1 时的一些关键思考过程,全文都是人工 CoT 的精华,讲述如何从 OpenAI 官网的例子和两个视频中找到关键线索,非常值得一读。
- 原文链接 www.zhihu.com

文章中的关键 insights,有很多与 DeepSeek R1 的思考不谋而合
- We need to enable models to search on their own!我们需要让模型能够自行搜索,思考包含了搜索过程,允许犯错。
- Don't tech, Incentivize + Less structure, More Intelligence 不要采取结构化的方法,最终会限制住模型的效果,要让模型自己探索思考范式,训练模型能够像人一样自由的思考。Agentic Workflow 只有短期价值,没有长期价值!早晚会被模型本身能力取代掉。
- 要训练 LLM 通过 RL 做有标准答案的题(数学 & 代码) ,去做有精确 Reward 的 RL,不要被 reward model 本身给限制。
- 如何用 RL 训练 LLM 通过 Long CoT 做题? In Context RL with Self-Critique:模型的输出轨迹包含自我反思过程,允许在过程中犯错并纠正,不直接评估中间步骤的价值(因为难以准确估计),只关注最终结果。
- 最关键的是 Long CoT 是如何变长的? 在 RL 训练过程中 模型可以自己涌现,会随着训练提升 performance 也不断增加 tokens 数

🟡 关于 DeepSeek 的训练
- DeepSeek R1 Zero 在 V3 的基础上应用了基于 GPRO 的纯强化学习,没有 SFT 就拥有了极强的推理能力。
- 最精华的工作 Aha moment:发现模型随着 RL 自然学会了 solve reasoning tasks with more thinking time,RL 本身并没有 reward 思考长度
- 但 R1 Zero 的可读性比较差、多语言混杂,不适用非推理类任务,还需要在 R1-Zero 的基础上做 R1

DeepSeek R1 是怎么通过 左脚踩右脚 训练而来的?
- 左脚踩右脚:R1 在训练过程中采用了迭代优化策略。基础模型 V3 通过 RL 促使了 R1-Zero 的诞生;然后 R1-Zero 生成的数据反过来 SFT 提升了 V3 的性能。通过模型自身能力的提升来循环迭代训练数据和模型本身,最终获得更高性能的 R1
- 仅凭文字描述较难理解,Sebastian 的《Understanding Reasoning LLMs》以及 张小珺商业访谈录最新的两期有关 DeepSeek 的播客对此有更详细的讲解。
- [Understanding Reasoning LLMs - by Sebastian Raschka, PhD](magazine.sebastianraschka.com)
- [91. 逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏” - 张小珺Jùn|商业访谈录](www.xiaoyuzhoufm.com)
- [89. 逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净” - 张小珺Jùn|商业访谈录](www.xiaoyuzhoufm.com)

🟡 DeepSeek 在 R1 的 paper 中还做了一些额外的工作上升了高度
- 高质量推理模型产生的高质量推理数据通过 SFT 能让现有模型的表现有巨大突破
- Unsuccessful attempts - PRM 和 MCTS 一时半会走不通
- 并不是什么模型都能左脚踩右脚,Pure RL 对 base model 的质量有一定的要求

💡 DeepSeek R1 的成功并非偶然,而是基于 DeepSeek Maths、DeepSeek V2、V3 等一系列长期技术积累和工程创新的结果。DS 很多创新的贡献其实早在半年一年前就先于 R1 发布了。
- 2024.2 DeepSeekMath 引入 GRPO,极大降低了 RL 的运算量
- 2024.5 DeepSeek V2 引入 DeepSeekMoE、MLA - 用时间换空间
- 2024.12 DeepSeek V3 引入 FP8 训练、MTP Multi-Token Prediction - 让模型看得更远一点

🔭 对于未来的展望
- 各家在 RL 的 Scaling 可能要出现了,通过给 AI 一个可衡量的目标,然后让其自己去探索,然后通过 RL 提升模型,仅此而已。未来只是把这个过程复制到更复杂的场景。DeepSeek R1 只是个开始,R1 还能尝试可控的 Inference Time Scaling
- 未来 Reasoning 的过程应该会是 long2short 的过程。Reasoning 本身还是 Next-Token Prediction,长不一定等于好。Kimi k1.5 的 paper 对此有更多的探索。

🔥 在产品思路上分析 R1 为什么破圈?
- R1 的发布时间打了一个绝妙的时间差,相比渗透率不高的付费模型 o1,R1 可能是很多人人生中用的第一个 reasoning model。而 web search 以及对于 reasoning 思考过程的展示也让 R1 作为产品而不是模型 相比当时的 o1 有了切实的产品体验上的提升。
- 不能忽视 Search 对 reasoning model 的巨大加持,R1 通过 search 获得了外部世界的观察才让它的体验变得绝佳。R1 + 其他什么能力是不是还可以产生新的化学反应?

🚫 关于一些常见的误解和质疑
- 不存在所谓的 R1 满血版,实际上 R1 只有一个版本,其他都是基于其他模型(Llama、Qwen)的蒸馏版本;
- 600w 训练成本?DeepSeek V3 paper 中注明了所有 training costs 的细节,并且强调这是最后一轮训练的成本,不包含前期研究、实验、数据准备等各种其他投入。后来媒体的过度发酵导致根本没有人在意 DeepSeek 的原文是什么。
- DS 偷偷藏卡了?看 DeepSeek V3 paper 上实现了这么多工程上“奇技淫巧”,就知道 DS 是真的没卡,不然不至于被逼成这样。
- 怎么看待蒸馏、以及 R1 回答说自己是 ChatGPT?Andrej Karpathy (屁股最合适回答这个问题的人)有很好的回应:模型本身对自己是谁没有概念,不要陷入过度拟人化的陷阱。鉴于现在互联网已经有大量被 ChatGPT 污染的语料,在 DS 没有花太多精力做 对 Self-Cognition 自我认知的对齐时,就会出现这种看似离谱实则合理的情况。

hidecloud: 昨天在真格做了一个面向非技术人群(我怎么每次都是面向这个人群😂)的 DeepSeek R1 创新亮点分享会(由我司首席科学家 Peak 提供 tech review,确保我没有瞎讲)。 用通俗易懂的方式带大家过了一次 R1 和 V3 的技术报告。让你可以理解在这之前业界都有哪些问题和疑惑,DeepSeek 是怎样去解题的,以及其中的几个重要闪光点。 后半场我们讨论了从中能看到未来 LLM 应用会有哪些新范式和产品可能性。 同时对最近一段时间的各种光怪陆离的谣言和伪概念进行一个解释😁

01
Edward_Luo
1年前
📍 前几天抢首发之前研究了一下,想体验无阉割版 Apple Intelligence 个人建议购买日版 iPhone 16 系列

🟢 优点
- 满血 Apple Intelligence 支持
- 购买难度低,自己去旅游或朋友帮带的机会很多
- pro + promax 价格性价比高 亚洲最便宜,在电器城买还能退税,只比美版贵一些
- 单卡槽 + esim (美版双 esim 没实体卡槽国内不太实用)esim 对于环球旅行以及国内特殊场景挺方便

🔴 缺点
- 在日本以及开启飞行模式时拍照有声音,国内非飞行模式下使用没有声音。

🟡 其他版本
- 港版 支持部分 Apple Intelligence、双实体卡槽、性价比高 - 但三方模型比如 GhatGPT 是否支持暂时没有定论(关键看后续接入第三方 AI 是由 1、设备序列号 2、Apple ID 的账号地区 3、网络环境(香港 IP 暂不支持 GPT) 哪部分决定)
- 加拿大版也不错,拍照没声音、单卡槽 + esim、支持的频段最全 - 就是价格贵一些,购买难度较高

📌 目前想要顺利使用 Apple Intelligence,需要满足条件是:
- 非国行机(序列号限制 非“CH/A”,可破解)
- 非国区/欧盟区 Apple ID(可能要舍弃国内的 iCloud)
- 语言&地区为 美国 英语
- 🪜
其实整体使用成本也蛮高的,可以根据个人对 AI 的需求 日常使用场景(英语占比如何)评估一下是否真的需要花额外代价购买非国行的机子。

OrangeAI: iPhone 16 的版本选择有说法了吗? 玩AI 买日版?

1116