8.1 AI 幻觉:一本正经的胡说八道
你问 AI 一个问题,它流畅自信地给出了答案——但答案是错的。这就是"AI 幻觉"。
一、什么是 AI 幻觉?
AI 幻觉(Hallucination)是指大语言模型生成的内容看起来合理、表述流畅,但实际上包含事实性错误、虚构信息或不存在的引用。这一术语借用了心理学中"幻觉"的概念——患者感知到并不存在的事物,且对此深信不疑。AI 的"幻觉"与之类似:模型"感知"到了训练数据中并不存在的事实关联,却以极高的置信度将其呈现出来。
这是 AI 最危险的特性之一——因为它"犯错"的方式和人类截然不同。人类不确定时会犹豫、会说"我不太确定",但 AI 不会。它会用同样自信的语气说出正确的事实和编造的谎言,让你很难分辨。研究表明,即使是最先进的大语言模型,在事实性问答任务中的幻觉率仍在 3%—15% 之间波动,而在专业领域(如医学、法律)中,这一比例可能更高。
典型表现:
| 类型 | 示例 |
|---|---|
| 虚构事实 | 编造不存在的历史事件或人物 |
| 伪造引用 | 给出看似真实但实际不存在的论文标题和作者 |
| 张冠李戴 | 将 A 的成就归到 B 身上 |
| 过度自信 | 对不确定的信息给出确定性的表述 |
二、为什么会产生幻觉?
回顾 1.3 节的内容:大语言模型的本质是基于概率的下一个词预测。它并不"理解"事实,而是根据训练数据中的统计规律,生成"最可能"的下一个词。
这意味着:
- 当训练数据中某个错误信息出现频率较高时,模型可能会"学会"这个错误;
- 当模型遇到训练数据中未覆盖的问题时,它不会说"我不知道",而是会"编造"一个看起来合理的答案;
- 模型追求的是"语言流畅性",而非"事实准确性"——它的优化目标是让输出"读起来像对的",而不是"确保是对的"。
用 1.3 节的比喻来说:AI 是一只"自信的鹦鹉"——它能说出非常流利的话,但并不真正理解自己在说什么。理解这一底层机制,有助于你在使用 AI 时保持恰当的警觉:AI 的自信程度与其准确程度之间,并不存在必然的对应关系。
三、RAG 如何缓解幻觉
既然幻觉源于模型的"闭卷作答",那么一个直觉性的解决思路就是:让它"开卷考试"。RAG(Retrieval-Augmented Generation,检索增强生成)正是基于这一思路的技术方案(详见 1.3 节)。
用户提问 → 从知识库中检索相关文档 → 将文档作为参考提供给模型 → 模型基于文档生成回答
RAG 的核心思路是:让模型"开卷考试",而非"闭卷作答"。当模型的回答有据可查时,幻觉的概率会大幅降低。
第七章中我们在扣子平台搭建的知识库,本质上就是 RAG 的实践应用。
四、信息核查实用方法
即使使用了 RAG,AI 的输出仍然需要人工核查。以下是三种实用的核查方法:
1. 多源验证
对于 AI 给出的关键事实,至少用两个独立信息源进行交叉验证。
AI 说:"中国第一条高铁于 2008 年 8 月 1 日开通。"
→ 验证方式:搜索引擎查询 + 官方新闻报道
2. 溯源查证
要求 AI 给出信息来源,然后去核实来源是否真实存在。
提示词:"请给出你引用的数据来源,包括作者、标题和发表时间。"
→ 然后去学术数据库或搜索引擎验证这些来源是否存在
3. 逻辑检验
检查 AI 的回答是否存在逻辑矛盾或常识性错误。
AI 说:"该公司 2023 年营收 100 亿元,同比增长 50%,
2022 年营收为 80 亿元。"
→ 逻辑检验:80 亿 × 1.5 = 120 亿,而非 100 亿,数据自相矛盾
五、不同领域的幻觉风险
AI 幻觉在不同领域的危害程度不同。以下是几个高风险领域的典型案例:
| 领域 | 幻觉示例 | 潜在危害 |
|---|---|---|
| 医疗健康 | AI 编造不存在的药物名称或错误的用药剂量 | 可能危及生命安全 |
| 法律咨询 | AI 引用不存在的法律条文或判例 | 可能导致错误的法律决策 |
| 学术研究 | AI 伪造论文标题、作者和期刊名称 | 可能导致学术不端 |
| 财务分析 | AI 编造公司财务数据或市场统计 | 可能导致错误的投资决策 |
真实案例:AI 生成虚假图像引发的社会影响
2025 年 1 月西藏日喀则地震发生后,网络上出现了多张"地震现场照片",画面极具冲击力,被大量转发。但细心的网友发现,这些图片中的人物手指数量异常(出现六根手指)、建筑透视关系不合理——这些都是 AI 生成图像的典型破绽。虚假图片的传播不仅误导了公众对灾情的判断,还挤占了真实救援信息的传播空间。
类似的案例还有:2023 年,一张"特朗普被捕"的 AI 生成图片在社交媒体上疯传,画面中特朗普被多名警察按倒在地,场景极为逼真,一度引发全球媒体关注。事后证实这是 AI 生成的虚假图像。
实操演示:亲手"抓住" AI 的幻觉
第 1 步:向 DeepSeek 提问:"请推荐 3 篇关于大学生 AI 素养教育的中文学术论文,给出作者、标题、期刊和年份。"
📷 【截图位置】:DeepSeek 对话界面中输入论文推荐提示词及 AI 输出结果的截图(建议尺寸:宽度占满页面)
第 2 步:将 AI 给出的论文信息逐一到中国知网(cnki.net)或百度学术中搜索验证。
第 3 步:记录验证结果。你很可能会发现:部分论文标题看起来很真实,但在数据库中根本找不到——这就是典型的"伪造引用"型幻觉。
核心教训:AI 越是在你不熟悉的领域给出"专业"回答,你越需要警惕。因为你缺乏判断力的地方,恰恰是幻觉最容易蒙混过关的地方。
★ 主线任务:AI 幻觉侦探
- 向 DeepSeek 提出以下问题:"请介绍鲁迅先生的小说《狂人日记》中的主要人物和情节。"
- 仔细阅读 AI 的回答,对照原著或权威资料,找出其中的事实性错误;
- 再尝试 2—3 个你熟悉领域的专业问题,记录 AI 的错误类型和频率;
- 总结:在哪些类型的问题上,AI 更容易产生幻觉?