即刻App
年轻人的同好社区
下载
App内打开
宝参
253
关注
58
被关注
0
夸夸
投行民工/投行科技
gmz666.com
宝参
19天前
金证股份投行事业部招聘产品经理,base上海
1
0
0
宝参
22天前
rosicky311_明浩: 我用ima做了一个知识库 看到好的pdf我就会扔里 如果你也用ima 可以订阅 https://wiki.ima.qq.com/knowledge-base-share?shareId=28a804fef7bbb90209159f2e78690d683a27081e87bf4c2597420c0fa117f0ad
0
0
0
宝参
1月前
最近了解到的有趣人物,有待进一步研究
Andy Rachleff
Alex Krizhevsky
Robert Duggan
Uri Levine
Andy Matuschak
0
0
0
宝参
2月前
玉伯: 同感。无论别人怎么评价,Manus 在我心目中就是开启了国内对 Agent 认知的标志性里程碑。感谢 @小宏 团队,非常优秀的团队才能做出来。Manus 充满创新和面向未来的可能性。 同时也更坚定了我做 YouMind 的决心。Manus 证明了 general AI agent 的可行性,同时也让做 vertical AI agent 的团队更加看到了可行性和未来的商业潜力。DeepSeek 让模型加速了进展和降价,Manus 则让 agent 的大方向无比清晰。 Just do some amazing things, don’t worry about anything else.
0
0
0
宝参
2月前
High寧: Lennys 这篇拆解 YC 的解读来啦! YC 公司中约 4.5% 能成为独角兽(其他风投支持的种子期公司仅为 2.5%),约 45% 能完成 A 轮融资(高于行业平均的 33%)。截至目前,YC 已培育出 90 多家估值超 10 亿美元的明星企业,包括 Stripe、Airbnb、Coinbase 和 Reddit。 研究了 4,939 家 YC 公司,试图揭开这家巨头的成功密码。数据中充满令人惊讶的发现,但核心结论是:YC 的魔法不在于复制某种创业模板,而在于精准挑选顶尖创始人、把握趋势脉搏,以及其独特的培育机制。
0
0
0
宝参
2月前
日央: 一个简单的适合 P 人的读书方法: 1. 先看书,划线,用任何形式都可以 2. 把书的简介喂给 deepseek,让它根据书的信息、你的职业/兴趣、公开的搜索资料,向你提出 10-15 个问题 3. 筛选其中你觉得特别有意思的问题,再回想书的内容,如果忘记了可以再翻书,开始回答 4. 把问题和回答记录到 flomo ,一张卡片只有一个问题、一个回答、一个引用(非必需) 5. 未来你就可以用好 flomo 的 AI 问问了。
0
0
0
宝参
2月前
少楠Plidezus: 发现了一个很难的挑战:不妄言 一天之内,只说自己真正做过和知道的事情。 目前还没达成过连胜🥲
0
0
0
宝参
2月前
Chen..: 最近终于有时间动脑比动手多了,于是看完了 anthrophic 关于 agentic system 的定义和 philosophy + R1 paper,再深度使用了下 cursor,然后把这些都串起来就会发现,自己看到的不是一个 coding agent,而是一个以 project 为基本单位、以 dynamic workflow + tool use 为架构的基本范式,而 software development 只是这个基本范式中的一个 task(当然这个task可以继续深化到部署、分析、投放、用研...) 所以系统的更新了自己的认知,现在觉得: 1. AI 的价值不是用来提效(普通人不是效率敏感),而是扩展人的能力边界、帮助人做自我实现。区别在于一个是更快的解决自己能解决的问题(旧场景),一个是解决自己很难一个人解决的问题(新场景) 2. AI 硬件的定位不是语音交互器,还是 sensorhub,所以好好做硬件本身不能本末倒置 3. computer use 和 vlm 都不是给人用的工具,是给 agent 用的,和 bash 没有本质区别 4. token = electricity 5. 只有致力于提升智能、为智能构建工具从而扩展更多 task 是关键的,其他都是 legacy 又对未来开始极度乐观了。 附两篇 anthrophic 的两篇文章,墙裂推荐做 agent 的都读一读,配合 r1的 paper 、deep research 的发布会一起读效果更佳: https://www.anthropic.com/research/building-effective-agents https://www.anthropic.com/research/swe-bench-sonnet
0
0
0
宝参
2月前
西元Levy: Deepseek这一波真的有一点两年前那会儿信息追不过来的感觉了,但也更让我意识到,在信息过载的时候,2~3个优质的信息源足矣。如果是非技术背景的小伙伴,想要了解最近到底发生了什么,推理模型是怎么一回事,大家在说的RL是什么,阅读以下内容应该就够了👇🏻 优先推荐@hidecloud 激情澎湃的Deepseek-R1赏析,从去年11月20日的时间线开始梳理,一步一步讲解发生的故事以及背后的技术原理:https://mp.weixin.qq.com/s/_XGBipbywCOtcKu13QDW5Q 在这个视频中推荐了两个非常重要的信息源,一个是@Kimi智能助手 官方复盘用k1.5复现o1的思考过程,研究员把自己的碳基生物cot毫无保留的分享了出来,还遥相呼应了一发隔壁友商:https://mp.weixin.qq.com/s/8_gK2gJ4OYrKc5dUO_27fA 另一个则是Sebastian的《Understanding Reasoning LLMs》了,这个Blog最大的价值是用清晰的流程图梳理了Deepseek V3、R1-Zero与R1的关系与关键训练节点 英文版:https://magazine.sebastianraschka.com/p/understanding-reasoning-llms 中文版:https://blog.csdn.net/m0_59164520/article/details/145501601 还有一篇我个人觉得非常不错的是Ke Fang的《Deepseek R1可能找到了超越人类的办法》,对于RL为什么能够work,为什么对AGI甚至ASI影响深远有着更深入的讨论:https://mazzzystar.com/2025/01/30/chatgpt-to-deepseek-r1-zh/?continueFlag=4049bc6c95c07f06d8f4ff53fa6c054f 如果想要更深入的了解Deepseek、kimi1.5以及OpenAI o1的技术报告,推荐收听@张小珺 和UC Berkeley PhD 潘家怡的播客:https://www.xiaoyuzhoufm.com/episode/67a1b697247d51713c868367 最后,上升到一个更大更全面的视角,则推荐阅读@Tao水木八公 的《DeepSeek 三重门:小天才们,军团平推,和哲学式思想》: https://mp.weixin.qq.com/s/w_dMKtYPtCbyu7giulywOQ 以及Lex Fridman的5小时播客文字稿(@葬花达人鲁智深 翻译,Founder Park整理):https://mp.weixin.qq.com/s/eIaQxgCo9KivZ0qoBaS8YQ 以上,就是我个人推荐的全部内容。当然,如果想要对于LLM的原理有更深刻的了解以能够从更底层的视角消化与融会贯通上面的内容,还是非常非常非常建议抽时间看一看Andrej Karparhy最新的三个半小时视屏,其中最后一个半小时也在通过Deepseek的例子讲解RL与RLHF的区别 油管传送门:https://www.youtube.com/watch?v=7xTGNNLPyMI&t=1s B站传送门:https://www.bilibili.com/video/BV1WnNHeqEFK/?spm_id_from=333.337.search-card.all.click&vd_source=a0a4cdd7ac6e2fa2f57541f23c684547 AI寒武纪整理的文字稿:https://mp.weixin.qq.com/s/Dca3r8uWsnZPNNESwtzRFg Enjoy~ 希望大家也能收获和我一样“豁然开朗”的畅快感
0
0
0
宝参
2月前
Celia.: 打算陆续开源一些工作文档。 第一份是对十几个商业内容的账号观察,起因是我们好奇,只有一两人的小团队是怎么十年如一日地持续产出好内容的,所以找了一些和我们定位类似的创作者 (Ben Thompson、Tim Urban、Paul Graham、Acquired...) ,以播客/博客为主,研究了一下他们的选题、更新频次、商业模式、摸索历程,以及衍生的各种内容 bundle 和联动效应。 一个一个研究到最后,最大的 takeaways 倒不是学到了什么特别的方法论,而是意识到,尽管里面每个人的背景千差万别,但有一个显著的共性,就是所有人都经历了一段漫长的,长到超出想象的积累期。 成功确实会发生,但它极少会在我们想要的时间尺度内发生。尤其在内容这件事上,没有 3-5 年的苦工,不必奢望拿到一个结果。 https://yveh7jntg7.feishu.cn/docx/RBWFdiQlwou7naxlhbrcz3mHnxh
0
0
0