AI hallucination,中文叫做“大模型幻觉”。
指的是大模型生成的内容听起来合理、语法正确,但其实是 虚构、不准确、错误或编造出来的。
一本正经的胡说八道。
例如:
你问模型:“请告诉我牛顿的母亲发明了什么科学理论?”
模型可能回答:“牛顿的母亲汉娜·艾斯科夫特发明了地心引力理论。”
大模型幻觉常见例子:
- “莎士比亚写过《数据科学之路》” - 编造事实
- “这本书发表于 2021 年清华出版社”,实际上并没有这本书 - 虚构的引用/虚构的文献/错误的时间/错误的信息
- 把 A 的成果说成 B 的 - 张冠李戴
- 编造一个不存在的函数
torch.magic_fit()- 虚构不存在的 API 或者代码 - “爱因斯坦曾参加世界杯足球赛” - 虚构的历史/虚构的事件
🤔为什么会出现大模型幻觉?
- 基于统计学习:你给它相应的语料库,它根据你提供的语料库进行学习
- 训练数据不完整或有偏差
- 对人类提问的“补全压力”
🙋如何解决大模型幻觉?
让大模型回答问题更加符合我们的期望。
- 提示词工程
- RAG - 外挂知识库
- 大模型微调
-EOF-