即刻App年轻人的同好社区
下载
App内打开
AI_Native_Vito
160关注52被关注0夸夸
00后,SUFE,ENTP,VCer,AI Native,Start Up
AI_Native_Vito
7天前
AI_Native_Vito
11天前
这两天顺手做了个Chrome插件,已经上线了,搜索即可下载使用:MindSlice
​功能是自动化抓取当前页面的文字内容和视频内容,交给AI总结后,调用Nano Banana Pro自动化生成一张“知识图”,内置了几种不同的形式,会根据具体内容分析使用,并且会自动化配色
​目前需要自己填写gemini的api key,没有的uu可以去ai studio申请一个,填入后即可使用,并可以加入自己想要的特殊规则,开启有悬浮球可以快速唤醒
00
AI_Native_Vito
3月前
ChatGPT发布了Pulse:
Pulse是ChatGPT的一项新功能,它不再被动等待提问,而是会在夜间根据你的聊天历史、关联的日历和邮件等数据进行研究,并在第二天清晨以卡片形式主动推送给你量身定制的摘要、提醒和建议。突出两个词,丝滑,无感,一个简单的往下滑查看这一期的信息,简洁且克制。
第一代推荐是主动搜索打广告,第二代推荐是用户画像推荐算法,你只需要左划右划就知道你喜欢什么。而Pulse是理解你的完整需求后,直接为你“创造”一个独一无二的解决方案,也就是生成式推荐。
看起来生成式推荐的几个特点:
1. 精准:借助LLM的智能,只要有足够的数据,理论上可以做到远超用户画像的精准。
2. 想你所想,做你所未做,最后代替你决策:第一步是帮你想你想的东西,收集信息;第二步是帮你做你还没做的,比如各种日历邮件;第三步是帮你做决策,比如日程上面约的coffee chat,直接帮你定好位置和咖啡。越到后面价值越高。
3. 形式和模态可以随意切换:喜欢播客的人会去喜马拉雅,喜欢文章的人会去公众号,喜欢视频的会去抖音,但是现在可以all in one,你想看什么,它就会是什么。
现在每日一期卡片,但如果做成可以无限往下刷的feed流呢?上一波基于用户行为的分析方法仍然可以复用。但是这是最优解吗?停留时间和滑动的反馈,也不一定精准:手机忘关看了十分钟母婴,后面一个周抖音都孜孜不倦给我推。会不会生成式推荐下有我们没想到的更优解?
从一个被动响应你指令的“工具”,进化成一个能主动感知你需求并为你服务的“助理”,开始摆脱“要用的时候才打开”的工具属性,用户粘性估计会有一定提高。
真正的护城河是数据:不仅收集用户输入的“问题数据”,了解用户想知道什么,还通过授权获取“生活全景数据”(邮件、日历等),去建立壁垒,让用户几乎无法迁移。
技术领先的窗口期很短,模型不值钱,但心智份额是持久的。OpenAI最大的壁垒是让“ChatGPT”成了AI的代名词,就像“Google一下”,这本身就是最强的流量入口。
所以可以回看Kimi,原来的投流让其现在还是有一定日活,仅仅排在豆包元宝deepseek后,现在看来当初是否是正确决定?
终极形态是“OS”而非“App”:要实现真正的全天候主动服务,AI必须深度融入硬件底层。从这个角度看,定义新的随身硬件(AI眼镜?)或掌握现在的硬件入口(手机厂商?)更有优势。
直到目前为止来看,声势可能还是最重要的护城河,原来掌握巨额DAU的巨头可以后发制人,但初创公司必须赶紧跑到前面,占住用户的心智。在大赛道上(比如智能助手),这是初创公司唯一跻身第一梯队的机会,在小赛道上有机会做第一,但是第二三四五可能都是大厂。
00
AI_Native_Vito
3月前
vibe coding 到底有是不是伪需求?
确实没有人会没事想跑去给自己建个站,但是我爸确实会想怎么通过代码给学生建一个积分系统,做成一个漂亮的网页。
原来他想做类似的事儿,用的是excel,太丑,太不方便。后面想说自己学代码,找我要了Python的课,看不下去,说自己已经老了,学不懂了。
确实,​我爸已经50了,让他翻墙用别的是有点搞不定,工作的时候学校的电子黑板也没法访问外网,但是用用扣子空间还是能行的,基本满足了他的需求。
​去年,我帮他也折腾过类似的事儿,那个时候效果太差,今年已经很成熟了。后面模型能力会打通越来越多的场景,到底切哪个场景,做原来什么工具的“上位替代”?会不会出现原来没有的“工具”或者“娱乐”?
00
AI_Native_Vito
4月前
- nano banana 的研究员在采访中说,之所以模型对各种场景、元素的理解、控制和风格迁移、融合那么好,是因为训练的时候找到了一个容易量化的指标:生成文字的效果
​- 其他的结果都是在提升这个能力时,自然而然地“附赠的能力”
​- 类似的事儿在llm上,可能表现就是推理模型大量用方便量化代码和数学问题来做强化学习,结果“顺便”提升了模型的整体能力
​- 以上说的附赠和顺便都是打了引号的,并不是说真的是附赠的,也不是真的那么顺便
​- 真实世界中,我们也在训自己这个大模型,也喜欢用不同的指标来量化,去做强化学习,比如考试成绩和工资,或者粉丝数
​- 不过我们的奖励函数往往复杂得多,很难求最优解。大多数人的奖励函数都有各种各样难以量化的指标,最后模型也训得千奇百怪
​- 当你的奖励函数设计得比较正确的时候,可能很多“附赠”就会“顺便”来了。这个说法有点像玄学的“因果”,虽然我完全不相信玄学
- 比如拿成绩作为指标,训来的模型也不错,但是以学到了知识作为指标,可能训的模型效果更好?不过这个指标变得难以量化,可能因为难以评估模型行为变得没法训了


​配图据说是第一张google内部使用nano banana创建的图片
00
AI_Native_Vito
4月前
遥想刚开始用GPT帮我写朋友的python作业,七八十行代码有三个bug。
​24年上半年还是磕磕碰碰的,后面claude 3.5出来了,写个小几百行不成问题,小网页也变漂亮了,下半年o系列模型出来后,更复杂的也可以写了。
​今年来,居然写个几千行代码都可以了,甚至一些复杂的前后端关系,各种竞赛算法,或者简单的深度学习,都已经不在话下。
以至于现在各家模型都主打代码和Agent能力,甚至于其他的能力是“附赠”。不惜牺牲情商也要卷code的GPT5就是个例子。
​我原来的想象力也仅限于补全代码,那是github copilot,后面发现其实可以让他干点小活,那是cursor。claude code出来后,发现还是给他权限太少了,完全可以当同事和专业程序员一起来写代码。
​图中是我的dev朋友之一,从面对对象编程转为了面向AI编程,但是兴致勃勃搞了半天然后被GPT5坑了之后,怒而吐槽以至于打字都打错了。
00
AI_Native_Vito
4月前
GPT OSS 开源的精准卡位:
​- 大杯总参数量120B, 刚好可以放在一张H100上。比qwen的235B和deepseek的671B等需要几张卡的更好部署,智谱 kimi minimax的大杯等也都是几百B,卡了一个很舒服的位置,对开源模型使用者来说很容易部署
- 大杯激活参数仅仅5.1B,横向对比qwen的22B和deepseek的37B, 以及其他几个开源的大杯也是几十B,小了一大圈,这意味非常低的成本,图1和图2都是反映这个点
- 小杯的竞争力倒是基本上和国产差距不大
- 闭源模型的旗舰往往没有平替,比如Claude的代码能力,你为了效果,再贵,捏着鼻子也要用,但是大多数开源模型的核心竞争力还是性价比
- gpt oss在部署难度和推理消耗上面,比市面上同等级模型低一个档次,卡位了,在模型能力差别不大的情况下,开发者没理由不用更便宜的
- 这个卡位未来可能会持续存在。OpenAI 开源这个模型对他自己的商业价值可能不大,但是对国产一众开源模型比较麻烦
- Anthropic不太可能会做这事,但Grok和Google会不会也跟进?
​- P3是最新是一张发展进程图,战争越发白热化,先发者能维持优势的时间越来越短,这可能也是OpenAI焦虑的原因
30
AI_Native_Vito
5月前
「DS R1 的爆火不是标志着其他模型厂商的退场,而是中国+开源向世界发起挑战」
- 第一梯队仍然是gemini openai claude grok,但是和第二梯队差距变小。
- 国产的一众第二梯队有性价比优势,主要是模型激活参数小:卡少有卡少的玩法。
- 如果卡的问题被完全解决,弹药无限,国产大模型能够达到怎样的高度?参考grok的光速进步,国内团队潜力巨大。
- 第二梯队原来有qwen和deepseek,现在kimi 智谱 minimax 都返场往里面挤。这些都是开源的,互相促进技术进步。
- 而国产闭源中字节在第二梯队,腾讯在二点五梯队。除了这几家公司外,只有Mistral能上桌,但是可能在第三梯队了。
- meta什么时候能重回第一梯队?现在只能算二点五梯队了。
- AI创建全栈应用也是所有模型厂商的目标,字节 阿里腾讯美团智谱minimax无不发力,暗面是context engineering和模型内化agent能力的路线竞争还在继续。
​- 这个竞争可能是建立在模型通用能力不足的情况下的。大胆预言家一下:百分之九十九的场景是用不到端到端RL的。
00
AI_Native_Vito
5月前
很多时候我们简单的认为,Agent无法完成全栈应用开发、无法在小红书看攻略后在携程上面订票、无法写出非常棒的研究报告,是智商问题。
​其实llm的智商早已过了那个线,不然也不能完成这么复杂的数学和代码竞赛。​
我们很容易造出扫地机器人,因为它的奖励函数极其简单:地面干净。但是我们很难造出捕猎机器人,他需要寻找干净的水源、独自搭建庇护所、设置陷阱,追寻猎物、生火等等一系列复杂的操作,并且需要实时判断,奖励的函数又往往不直观。
​现代人类能够完成这么多混合操作的任务,建立在非常长时间的奖励函数的培养当中,和非常高效持久的记忆力基础,以及一个强大的预训练模型(基因)的基础上。如果让现代人类突然回到原始社会捕猎,也需要花很长时间适应,甚至大部分人无法生存。
​显然,LLM还没学会怎么和世界相处,越是复杂越是面向人类的任务,越难找到高质量数据。同时,我们的网络世界也并不是面向LLM设计的,我不认为browser use和operator这样的交互方式是优雅的。
00
AI_Native_Vito
5月前
年初,DeepSeek爆火之后,仿佛六小龙一夜之间失去了所有光环,市场情绪立马变成了“应用要开始爆发了”“套壳即是正义”“训模型的不行了”。
最近,Kimi 发布了足以在agent和前端能力上媲美最优秀的Claude系列的K2,Minimax 发布了M1并且做了自己的Agent,搞了生成全栈应用的功能。二者称得上强势归来,同时还有智谱和阶跃在憋大招。
​游戏还早,不要太早闭环。模型竞争最多在上半场,应用竞争也相当早期,甚至基础设施上的竞争还没正式开场。
一段时间的赢家,往往不是最后的赢家,判断越细可能会越错。
​如果信AI,那就要相信Scalling Law,很多场景会有一百倍的Boost,以现在的视角来看,是无法预测的。
00