一个古老又有趣的思路:挑选了几篇自己觉得还不错的思考,整理成instruction-output格式,构建virtual me的数据集,等数据积累够了再拿去给小模型微调,或许就能变成一个我在某一个特定方向的plus。
在这件事情上其实没有完全相通,但认识到,其实不是每一件事情都能完全想通了才能干,有时候就是一边探索、一边寻找意义。于是我想,是不是可以把自己写过的思考沉淀下来,尝试看看能做什么事情。
一些简略的思路:
1. 从牌桌角度,这个事情如果大厂做就要求规模化、要求快,但我拿10篇文章洗了几轮数据之后发现,要想让模型学到精髓就必须要确保提供的样例精准,是个精耕细作的过程,大厂可能不会去做。同时这个事情如果个人去做,那么也要要求长期沉淀、有耐心孵化。
2. 从成本角度,最大的成本就是时间成本,前期产出数据的工作可能比较重,要积累到可以微调级别的数据量可能需要一年。如果积累成功后,再租服务器的成本相对可控,且小模型大概率就能调出一个版本,避免了大模型token费和搭建复杂的架构。不过不管是大模型+架构,还是小模型微调,都是需要对数据进行预处理,比如文章中的口水词、不客观理性的表达、主观偏见,都要先提前处理掉。
3. 从订阅角度,随着生命周期的拉长,新的产出会纳入到个人数据库,可以通过定期训练模型或者短期RAG的方式给用户提供新内容,避免一次性购买下产品无法迭代进而导致用户兴趣度下降的问题,同时更新机制也能防止数据被抄袭。
4. 从数据角度,在数据中加入逻辑链,让模型学会推理而不只是背答案。要避免逻辑冲突、短期高估自己的产出效果、碎片化信息稀释专业度、不同类别要分开等。但坦白这个过程极其繁琐,因为每一篇文章的逻辑交叉,导致有可能大模型的注意力发生偏移,所以需要对同一篇内容反复提取、并对出来的精华再对比,才能和我的逻辑对齐。