嗯,大家不必把 ChatGPT 的底层技术想得太复杂,毕竟这不是造芯片。
而且很明显国内正在通过封禁 ChatGPT 的相关内容,来为国产版争取时间。 //
@Samon: ChatGPT是在GPT1、2、3上面不断迭代而成的,其基本模型都是开源的。作为国内最早研究大规模语言模型的团队之一,复旦邱老师的团队是有足够的知识储备的,能基于他们自己的模型去做一个类ChatGPT的模型是肯定可行的。
其次,ChatGPT相对于比它小很多的前几代模型,效果也只是提升了一点点。个人估计MOSS的规模应该比ChatGPT应该会小很多,但是肯定够用。
PS:邱老师的团队追热点的速度真的快,从BERT的时候就这样了😂。