MS最近一篇Research估计GPT-5用20-30万块H100训练130-200天,计算量比GPT-4大概多了25-100倍,真实情况肯定也不会差太远。H100的成本大概是3$/hour,这么拍的话,光电力成本就是10-40亿美元,从这个基本常识出发,任何鼓吹开源模型都是在搞笑?
看Sam最近在MIT的发言,下一代模型块发布了,叫GPT-5或者其他名字也好,没有任何理由说模型能力进入plateau,等发布的时候,预计所有开源模型看起来都像玩具:)
btw,GOOGL,AMZN,META,MSFT这四家预计2024年在数据中心上的capex超1500亿美元,这种规模其他人只能当吃瓜群众。除这四家旗下的模型,以及Elon的xAI以外,估计其他所有大模型公司在2024、2025都会被收购,或者gg。