关于AI出现幻觉这件事
我对国内的大模型能力始终保持一些质疑,不管是豆包还是千问,在回答问题上都是尽量:完整,流畅,模糊安全,政治正确,这几点上回复。
千问更侧重于:完整,流畅,答案闭环,但幻觉一旦出现,就是一本正经,且严谨的胡说八道。
我问各大模型分别出现幻觉的概率是多少,具体数据没有时,会直接照抄网络数据回答,给你一个看似专业,但严重认知错误的答案,且缺乏自我验证。甚至会不加修饰和铺垫的直接报出自家短处
但给千问指出问题后,它会诚恳道歉,且会记录知识库修正
豆包更侧重于:模糊安全,自然交互流畅。
专业领域回答,看似正确,但很多细节都是投机取巧,叙事逻辑上看似自洽,但实际缺乏多维度分析,代码会报错,回答追求圆滑通顺,而不是严谨正确,
你指出对方问题时,它会简单道歉,但偶尔也会诡辩。