即刻App
年轻人的同好社区
下载
App内打开
宝参
255
关注
60
被关注
0
夸夸
投行民工/投行科技
gmz666.com
宝参
9月前
rosicky311_明浩: 我用ima做了一个知识库 看到好的pdf我就会扔里 如果你也用ima 可以订阅 https://wiki.ima.qq.com/knowledge-base-share?shareId=28a804fef7bbb90209159f2e78690d683a27081e87bf4c2597420c0fa117f0ad
0
0
0
宝参
9月前
最近了解到的有趣人物,有待进一步研究
Andy Rachleff
Alex Krizhevsky
Robert Duggan
Uri Levine
Andy Matuschak
0
0
0
宝参
10月前
玉伯: 同感。无论别人怎么评价,Manus 在我心目中就是开启了国内对 Agent 认知的标志性里程碑。感谢 @小宏 团队,非常优秀的团队才能做出来。Manus 充满创新和面向未来的可能性。 同时也更坚定了我做 YouMind 的决心。Manus 证明了 general AI agent 的可行性,同时也让做 vertical AI agent 的团队更加看到了可行性和未来的商业潜力。DeepSeek 让模型加速了进展和降价,Manus 则让 agent 的大方向无比清晰。 Just do some amazing things, don’t worry about anything else.
0
0
0
宝参
10月前
High寧: Lennys 这篇拆解 YC 的解读来啦! YC 公司中约 4.5% 能成为独角兽(其他风投支持的种子期公司仅为 2.5%),约 45% 能完成 A 轮融资(高于行业平均的 33%)。截至目前,YC 已培育出 90 多家估值超 10 亿美元的明星企业,包括 Stripe、Airbnb、Coinbase 和 Reddit。 研究了 4,939 家 YC 公司,试图揭开这家巨头的成功密码。数据中充满令人惊讶的发现,但核心结论是:YC 的魔法不在于复制某种创业模板,而在于精准挑选顶尖创始人、把握趋势脉搏,以及其独特的培育机制。
0
0
0
宝参
10月前
日央: 一个简单的适合 P 人的读书方法: 1. 先看书,划线,用任何形式都可以 2. 把书的简介喂给 deepseek,让它根据书的信息、你的职业/兴趣、公开的搜索资料,向你提出 10-15 个问题 3. 筛选其中你觉得特别有意思的问题,再回想书的内容,如果忘记了可以再翻书,开始回答 4. 把问题和回答记录到 flomo ,一张卡片只有一个问题、一个回答、一个引用(非必需) 5. 未来你就可以用好 flomo 的 AI 问问了。
0
0
0
宝参
10月前
少楠Plidezus: 发现了一个很难的挑战:不妄言 一天之内,只说自己真正做过和知道的事情。 目前还没达成过连胜🥲
0
0
0
宝参
10月前
Chen..: 最近终于有时间动脑比动手多了,于是看完了 anthrophic 关于 agentic system 的定义和 philosophy + R1 paper,再深度使用了下 cursor,然后把这些都串起来就会发现,自己看到的不是一个 coding agent,而是一个以 project 为基本单位、以 dynamic workflow + tool use 为架构的基本范式,而 software development 只是这个基本范式中的一个 task(当然这个task可以继续深化到部署、分析、投放、用研...) 所以系统的更新了自己的认知,现在觉得: 1. AI 的价值不是用来提效(普通人不是效率敏感),而是扩展人的能力边界、帮助人做自我实现。区别在于一个是更快的解决自己能解决的问题(旧场景),一个是解决自己很难一个人解决的问题(新场景) 2. AI 硬件的定位不是语音交互器,还是 sensorhub,所以好好做硬件本身不能本末倒置 3. computer use 和 vlm 都不是给人用的工具,是给 agent 用的,和 bash 没有本质区别 4. token = electricity 5. 只有致力于提升智能、为智能构建工具从而扩展更多 task 是关键的,其他都是 legacy 又对未来开始极度乐观了。 附两篇 anthrophic 的两篇文章,墙裂推荐做 agent 的都读一读,配合 r1的 paper 、deep research 的发布会一起读效果更佳: https://www.anthropic.com/research/building-effective-agents https://www.anthropic.com/research/swe-bench-sonnet
0
0
0
宝参
10月前
西元Levy: Deepseek这一波真的有一点两年前那会儿信息追不过来的感觉了,但也更让我意识到,在信息过载的时候,2~3个优质的信息源足矣。如果是非技术背景的小伙伴,想要了解最近到底发生了什么,推理模型是怎么一回事,大家在说的RL是什么,阅读以下内容应该就够了👇🏻 优先推荐@hidecloud 激情澎湃的Deepseek-R1赏析,从去年11月20日的时间线开始梳理,一步一步讲解发生的故事以及背后的技术原理:https://mp.weixin.qq.com/s/_XGBipbywCOtcKu13QDW5Q 在这个视频中推荐了两个非常重要的信息源,一个是@Kimi智能助手 官方复盘用k1.5复现o1的思考过程,研究员把自己的碳基生物cot毫无保留的分享了出来,还遥相呼应了一发隔壁友商:https://mp.weixin.qq.com/s/8_gK2gJ4OYrKc5dUO_27fA 另一个则是Sebastian的《Understanding Reasoning LLMs》了,这个Blog最大的价值是用清晰的流程图梳理了Deepseek V3、R1-Zero与R1的关系与关键训练节点 英文版:https://magazine.sebastianraschka.com/p/understanding-reasoning-llms 中文版:https://blog.csdn.net/m0_59164520/article/details/145501601 还有一篇我个人觉得非常不错的是Ke Fang的《Deepseek R1可能找到了超越人类的办法》,对于RL为什么能够work,为什么对AGI甚至ASI影响深远有着更深入的讨论:https://mazzzystar.com/2025/01/30/chatgpt-to-deepseek-r1-zh/?continueFlag=4049bc6c95c07f06d8f4ff53fa6c054f 如果想要更深入的了解Deepseek、kimi1.5以及OpenAI o1的技术报告,推荐收听@张小珺 和UC Berkeley PhD 潘家怡的播客:https://www.xiaoyuzhoufm.com/episode/67a1b697247d51713c868367 最后,上升到一个更大更全面的视角,则推荐阅读@Tao水木八公 的《DeepSeek 三重门:小天才们,军团平推,和哲学式思想》: https://mp.weixin.qq.com/s/w_dMKtYPtCbyu7giulywOQ 以及Lex Fridman的5小时播客文字稿(@葬花达人鲁智深 翻译,Founder Park整理):https://mp.weixin.qq.com/s/eIaQxgCo9KivZ0qoBaS8YQ 以上,就是我个人推荐的全部内容。当然,如果想要对于LLM的原理有更深刻的了解以能够从更底层的视角消化与融会贯通上面的内容,还是非常非常非常建议抽时间看一看Andrej Karparhy最新的三个半小时视屏,其中最后一个半小时也在通过Deepseek的例子讲解RL与RLHF的区别 油管传送门:https://www.youtube.com/watch?v=7xTGNNLPyMI&t=1s B站传送门:https://www.bilibili.com/video/BV1WnNHeqEFK/?spm_id_from=333.337.search-card.all.click&vd_source=a0a4cdd7ac6e2fa2f57541f23c684547 AI寒武纪整理的文字稿:https://mp.weixin.qq.com/s/Dca3r8uWsnZPNNESwtzRFg Enjoy~ 希望大家也能收获和我一样“豁然开朗”的畅快感
0
0
0
宝参
10月前
Celia.: 打算陆续开源一些工作文档。 第一份是对十几个商业内容的账号观察,起因是我们好奇,只有一两人的小团队是怎么十年如一日地持续产出好内容的,所以找了一些和我们定位类似的创作者 (Ben Thompson、Tim Urban、Paul Graham、Acquired...) ,以播客/博客为主,研究了一下他们的选题、更新频次、商业模式、摸索历程,以及衍生的各种内容 bundle 和联动效应。 一个一个研究到最后,最大的 takeaways 倒不是学到了什么特别的方法论,而是意识到,尽管里面每个人的背景千差万别,但有一个显著的共性,就是所有人都经历了一段漫长的,长到超出想象的积累期。 成功确实会发生,但它极少会在我们想要的时间尺度内发生。尤其在内容这件事上,没有 3-5 年的苦工,不必奢望拿到一个结果。 https://yveh7jntg7.feishu.cn/docx/RBWFdiQlwou7naxlhbrcz3mHnxh
0
0
0
宝参
10月前
Gavin_C.: 给产品经理朋友们推荐 3 个学习大模型的音视频,它们都在近一周内发布,加在一起总时长 8.2 小时,所以现在学习的话一点都不晚 相信我,认真学习完 8.2 小时你会彻底对大模型上瘾的 首先是 Andrej Karpathy 的《Deep Dive into LLMs like ChatGPT》,Andrej 是 OpenAI 的创始成员,领导了 GPT-4 的开发,同时也是 Tesla 的前 AI 总监,它从 0 到 1 拆解了 ChatGPT 的实现原理,深入浅出但又非常全面 对我最有帮助的一是系统了解了分词的原理,比如去年 o1 刚发布的时候,网友问它 “Strawberry” 这个单词中有多少个 “r”,而 GPT-o1 这个当时地表最强模型却回答说 “2 个”。很多人误以为这还是大模型的 “幻觉”,对 o1 的智力产生了质疑,背后的原因其实是没理解分词的逻辑,人类解构 Strawberry 可以细化到单个字母,而大模型的分词其实拆分为了 st, raw, berry 3 个 token,它不是像我们人类有眼睛来看 二是更底层理解了大模型的预训练,模型的响应是基于对互联网文档的回忆,频繁出现的数据更有可能被准确回忆。这段时间 DeepSeek 爆火的时候,海外有人测试问它是谁,而 DeepSeek 回答说自己是 ChatGPT,间接让很多人认为 DeepSeek 是蒸馏的 OpenAI 。了解了预训练的原理我才恍然大悟,这很有可能是因为预训练数据里 OpenAI 这个知名实体频繁出现在多个训练窗口中,导致模型回忆时候 OpenAI 以更高的概率出现了而已 Andrej Karpathy 的这个音频可以在这里听:https://crunchpod.app/details/andrej_karpathy/5c2dfd8be5df11efbfc900163e0094cd?from=expert 其次是小珺邀请潘家怡逐句讲解 DeepSeek-R1、Kimi K1.5、OpenAI o1 的论文,家怡是加州大学伯克利分校人工智能实验室在读博士生,我听的时候是电脑上同步也打开了这几篇论文,真的是酣畅淋漓,本来是计划陪家人看 《哪吒 2》的 市面上大多数技术分析更多是对于 R1 的纵向分析,而这个播客之所以推荐的原因是,它有非常全面深入的横向对比,所以也就更能清楚知道 R1 为什么好,为什么在这个节点爆了 值得注意的是,市面很少有人解读同期发布的 Kimi K1.5,我这次也是第一次读 Kimi 的论文,没想到很多地方居然跟 R1 是异曲同工的,但 Kimi 没出圈是别的原因 中间我有个比较大的启发是,Kimi-K1.5 论文里提到它们有意控制模型输出的长度,为此设置了 length penalty 这样的奖励惩罚机制,因此模型在所有的回复里都会是尽可能短的,甚至将长思维链变成了短思维链,团队的目的是认为这样的用户体验更好,输出少、思维链短能快速给 answer 而如果从产品角度来看的话,模型在 “给答案” 这件事情上和滴滴的 “派单” 有相似之处,早期司机和车型不多,加之用户主要是打出租车迁移过来的刚需人群,快是核心诉求,后期用户类型增多跨越鸿沟进入早期大众 (Early Majority),在满足核心需求的情况下,快成了第二优先级 但看 DeepSeek 的爆发,恰恰是因为它的 “慢”,我在朋友圈做过一项调研:在用 Chatbot 类产品的时候,你大多数情况下是用慢思考的 o 系列,还是快思考的 4 系列?绝大多数人都选了前者,这个其实是因为大模型拉高了用户的阈值,对输出的质量和长度要求越来越高,“快” 并不是唯一核心诉求。所以还是老祖宗的那句话:技术永远要让位于需求,产品时时要回归场景 站在产品经理的视角来看 Kimi K1.5 的优化,我是觉得多少有些多此一举想多了,但这只是一个点,不能因为这而否定 Kimi 团队的优秀,小珺的播客可以在这里听:https://crunchpod.app/details/deepseek/ed462d42-61eb-45c3-b2c6-950097354959?from=company 最后是昨天张涛以产品经理身份做的关于 Deepseek-R1 的赏析,起手就是关于 DeepSeek 在过去 1 年的发布节奏,原来大家津津乐道的很多创新其实早在半年前甚至更长时间前就发布了。更印证了 《为什么伟大不能被计划》这本书里的观点:那些真正拿到宝的人,都是通过一步步的 “搜集踏脚石”来试错,一路踩到惊喜,而不是上来就说 AGI 张涛的分享见这里:https://m.bilibili.com/video/BV1bnNDeFELK?buvid=ZA49EEA93D2E8D134E8C9C203D9BD12CE3F9&is_story_h5=false&mid=tYnTNKGq9xlln4JjimVqSQ%3D%3D&p=1&plat_id=116&share_from=ugc&share_medium=iphone&share_plat=ios&share_session_id=3F9369BF-D03C-4086-B9CC-627852907508&share_source=COPY&share_tag=s_i&spmid=united.player-video-detail.0.0×tamp=1739146752&unique_k=bPINFzv&up_id=53268348 以上音视频建议都在电脑上听,因为可以边听边记笔记 ,最后,附上 DeepSeek 的发展时间线,让我们感谢这个时代的每一个贡献者 ❤️ 2023年6月,DeepSeek 成立 2024年2月,发表 DeepSeek-Math,提出 GRPO 2024年5月,推出 V2,提出 MLA 和 DeepSeek-MoE 2024年11月,推出 V3,提出了 MTP 和一整套软硬一体优化方案等 2025年1月,推出 R1,提出 R1-Zero
0
0
0