Andrej Karpathy:不要把LLMs 看作实体,而要看作模拟器。例如,在探索某个话题时,不要问:
“你觉得xyz怎么样?”
这里没有“你”。下次试试这样问:
“探索 xyz 话题,哪些人会是合适的群体?他们会怎么说?”
LLM 可以引导/模拟多种视角,但它并没有“思考”过某个特定事物很长时间,也没有像我们习惯的那样形成自己的观点。如果你通过使用“你”来强制它,它会通过采用其微调数据统计所暗示的人格嵌入向量来给你一些东西,然后模拟它。这样做没问题,但我发现人们天真地将“询问 AI”归因于它的神秘感要少得多。