即刻App年轻人的同好社区
下载
App内打开
以解何
75关注233被关注0夸夸
📖复旦统计&GMIM
💼某HF搬砖中|base上海
🔦关注AI模型&AI应用&互联网
🐒分享个人观点&欢迎交流
vx:HYJyh1823
以解何
19天前
谷爱凌说她能"控制自己的想法,从而控制自己成为什么人"——听着玄乎,但顶级运动心理学教练早就把这件事拆解成了方法论。
Jim Loehr,训练过无数奥运冠军的心理教练,说过一句话:"你生命中真正的权力掮客,是那个没人听得到的声音。" 你脑子里一直有个声音在讲故事——"我不够好""这次肯定搞砸""别人比我强"——这个声音决定了你真正是谁。
谷爱凌做的事情,就是把这个声音从"自动播放"切换成了"手动编辑"。她说她会拆解自己所有的思维过程,用分析性的视角去审视,然后调整它。
听起来很厉害,但具体怎么做?
Loehr给运动员的方法其实很朴素:当你发现自己在讲某个故事的时候,问三个问题——这个故事符合事实吗?符合我想成为的人吗?把我推向目标还是拉离目标?
如果三个都不是,就重写。
比如工作被老板批评,脑子里的故事是"我果然不行"。停下来检验:事实是什么?他在教你标准。这个叙事让你更想行动还是更想逃避?显然是后者。那就换一个:"他在用最高标准打磨我,我现在知道了规则。" 事实没变,但你从受害者变成了学徒。
关键是:写一次没用。旧故事之所以强大,是因为它被自动重复了几千遍。新故事也需要重复才能覆盖旧的神经通路。Loehr让速滑冠军Dan Jansen每天训练前看日记本顶端写的那句话,不是因为写下来有魔力,而是靠每天重复暴露。
所以不是"想通了就好了",而是像训练肌肉一样训练你的内心叙事。
00
以解何
5月前
最应该出年度总结的app可能是各类chatbot
其实claude ChatGPT gemini给我出每月总结
XX月你在纠结XX问题 感觉会很有意思
国内可能豆包和kimi能出?

哪个chatbot产品经理能出一下呀!
10
以解何
5月前
桂花在冷空气里有一种馥郁的温暖
00
以解何
5月前
今天看到一个同学 说bb入职三个月睡眠剥夺和糟糕的工作环境让ta burnout
我说我也是,我主要是精神高压和不适合我的激励环境

mid20 大家从学校来到第一份工作,其实是缺乏了peer的参照,比如同样都是工作,高压环境下的我们看到其他可能状态好一点的朋友,会自我怀疑是不是自己太脆弱
这种真实的burnout感受分享让我们知道并不是个体问题,能够在精神上有一定的relif

当然我在这段时间积极探索了 如何给自己闭合感,如何在暂时无法改变的环境里寻找一些意义
当然长期来看肯定是要找到一个适合自己grow的环境

把所有困扰自己的问题写下来,和ChatGPT讨论我现在能做什么来改善处境,能帮助我改善焦虑,打破习得性无助
00
以解何
5月前
dischord 微信群
如果是selective的成员
多对多的信息交换效率是很高的

自己写的东西往社媒发获取外界反馈也是非常有效率的改进认知错误获得增量信息的方法
00
以解何
5月前
求助ai infra的专家,如果有人能回答下面的问题pls dm,或者如果你认识有人能回答这个问题,pls dm,回答问题和推荐专家均可有偿

一、逻辑说明
我在尝试估算「1T tokens/s 推理」对应的加速卡需求。
基本推导:
Input:Output 3:1。
Input Prefill TPS = PeakFLOPs / FLOPs per token。
Output Decode TPS = PeakBW / Bytes per token。
理论卡数 ÷ 冗余因子 = 实际需求。
问题是:Prefill Decode TPS 的取值区间跨度过大(10x–100x),导致估算结果失真,需要业界经验来收窄范围。

二、核心困惑
Prefill TPS:受 N_active 影响,不同模型差距巨大(GPT-5的模型激活参数可能在100B,但claude模型因为是dense model可能达1000B, 差距过大)
Decode TPS:受 d_model、上下文长度 T 影响,每个因素跨度 6x–8x,叠加精度的2X差异,导致decode tps理论值上下界相差100X
Utilization:目前估算 prefill 0.35–0.65,decode 0.25–0.55,但不确定是否贴近实际。

三、问题清单
1.Prefill TPS
主流模型(GPT-5/Claude/Gemini)的 N_active 实际范围通常是多少?
2.Decode TPS
实际部署中,d_model 与上下文长度 T 的典型范围(p50/p90)是多少?
3.Utilization
Prefill 0.35–0.65,decode 0.25–0.55 这些数值是否符合业界经验?
00
以解何
5月前
感觉AI用久了 自己学东西的扎实度其实是下降了
思考了一下感觉是AI可能太依赖于相关性抽取知识,有点像一个个抽屉取出来知识
但真实知识应该是树状的,除了语义相似关联,更关键的是概念的关联(可能是knowledge graph)
00
以解何
6月前
Google宣布Nano Banana上线不到一个月生成5B张图

我的一些想法
目前用户应该以技术爱好者和一些独立设计师为主,带来的收入增量不大,实际收入估计~100M
Nano Banana后续有望带动GCP收入提升5%,为Google广告增效,兑现周期约6-12个月
瞄准3.5B的企业创意市场,营销、文娱、游戏行业采用Nano Banana生成创意素材后逐渐迁入GCP生态,带动存储等其他负载迁入,对GCP收入提升可达5%以上
Google广告正通过垂直整合Nano Banana等生成式AI能力,将广告素材创作环节内化于投放平台。该战略旨在根据营销目标和产品数据,大规模生成并优化海量创意素材,从而驱动Performance Max等自动化广告产品的效果提升,最终吸引广告主投入更多预算
相比此前的文生图产品,Nano Banana拓宽了应用场景并降低了使用难度,这是因为Google原生多模态的路线赋予Nano Banana更完善的世界理解和更准确的文本遵循
10
以解何
6月前
RL环境的构建重要性与日俱增,结合了姚顺雨写的ai下半场,the information的报道和prime intellect的发文,还有sherwin wu的podcast总结如下,抛砖引玉一下(如果谁懂这方面希望多多交流)

强化学习中此前依赖专家标注数据,但始终难以scale, 目前业界重心转移向构建环境以支持模型的交互式训练

原理上环境设计的好,模型能生成数据-自我评分迭代能力,形成持续改进的飞轮。这个飞轮过程中环境运行、合成数据的生成和模型基于合成数据改进是这一轮模型训练infra扩建的核心原因之一(相比人工标注数据,领域和数据量级上都得到了扩展)
环境构建复杂,容易出现模型“钻空子”的问题(reward hacking),需要大量工程设计
具体公司战略
OpenAI:合成数据 + 专家评分(RFT),派 FDE 深入客户,把真实业务系统变成环境
Anthropic:26年计划投入$1B打造大规模模拟环境,强调安全性、可控性和对齐
xAI:直接把人类交互当环境,强化模型的通用社会化能力
00
以解何
6月前
AI对购物的影响

我对购物的拆分是 供给 需求 和供需匹配
其实广告业务的目的是提高供需匹配。广告投放决策者试图在最有可能有需求的地方投放广告。
最开始是靠人群分类,有了互联网和手机,能收集个人行为数据,对需求的预测变得更精准,但这里更多是行为结果来判读。AI带来的影响其实是对需求背后的原因理解的更深刻,那么可能推荐出不同的但更满足底层需求的产品。

广告的生成端其实是帮助生产者传递产品的价值所在, 即能满足什么需求。AI带来的改变是能根据用户的喜好直接生成广告,直击个体需求。

广告投放的权力结构,在于谁能吸引用户的注意力。最开始的时候纸媒/电视占据了大家的注意力,后来是信息搜素和娱乐场所(google, meta), 再往前搜素的需求仍然有,但可能转移到了OAI,娱乐的需求暂时可能meta满足的更好,但也可能存在纯AI社区更好满足了大家的娱乐需求。

在关键词广告时代,人们为关键词竞价,到了AI推荐,人如何影响AI推荐呢?
00