导读 人们常常把大语言模型提供的看似合理但错漏百出的答案称作“AI 幻觉(AI hallucinations)”。然而,来自英国格拉斯哥大学的三名哲学研究人员近期提出了不同的看法 ——“AI 幻觉”这样的描述
6 月 12 日消息,长期以来,人们常常把大语言模型提供的看似合理但错漏百出的答案称作“AI 幻觉(AI hallucinations)”。然而,来自英国格拉斯哥大学的三名哲学研究人员近期提出了不同的看法 ——“AI 幻觉”这样的描述并不准确。
当地时间 6 月 8 日,《伦理与信息技术》杂志刊登了三名研究人员的论文。这篇论文指出,聊天机器人“胡编乱造”回答的行为不应被称为“幻觉”,用“胡说八道(bullshitting)”一词来描述才更准确。
研究人员指出,学习过心理学或使用过迷幻类药物的人都知道,“幻觉”通常被定义为看到、感知到不存在的东西。而在 AI 领域,“幻觉”显然是一种隐喻,大语言模型根本看不到、感知不到任何东西。AI 并非经历“幻觉”,而是在复制训练数据中的人类语言模式,并不关心事实的准确性。
研究人员认为,AI 模型没有信念、意图或理解力,它们的不准确性不是因为误解或幻觉,而是因为它们被设计用来创建看起来、听起来都正确的文本,没有任何“内在机制”来确保事实的准确性。
版权声明:本文由用户上传,如有侵权请联系删除!