第八章 AI 的局限与风险——清醒地使用工具

本章摘要: AI 很强,但也很危险。它会一本正经地胡说八道(幻觉),会歧视某些群体(偏见),甚至会泄露你的隐私(安全)。作为一个成熟的 AI 使用者,不能只看到它的光环,更要看到它的阴影。本章将帮助读者建立一道”防火墙”,在享受便利的同时,不被算法算计。

知识图谱

第8章知识图谱

导言:当 AI 判断失误

前面七章中,我们学习了 AI 在文字、图像、音视频、数据分析和智能体搭建等领域的强大能力。但正如任何工具都有其局限性,AI 也有它”不擅长”甚至”会犯错”的地方。

如果医生完全听信 AI 的诊断,可能会开错药;如果法官完全听信 AI 的量刑建议,可能会冤枉好人;如果你完全听信 AI 写的论文,可能会因为引用了不存在的文献而被判定学术不端。

清醒地认识这些局限和风险,不是为了否定 AI 的价值,而是为了学会“带着怀疑去信任”,更安全、更负责任地使用它。当机器开始模仿人类思考时,人类最珍贵的能力不再是”不出错”,而是”能够判断什么是错”——这种判断力,正是本章要培养的核心素养。

学习目标

完成本章学习后,读者将能够:

  1. 解释 AI 幻觉产生的根本原因(概率预测),并掌握事实核查(Fact-checking)的方法;
  2. 识别 算法偏见(如性别、种族、价格歧视)的常见形式,理解其社会危害;
  3. 应用 数据安全保护措施,避免在使用 AI 工具时泄露个人隐私;
  4. 辨析 “对抗性攻击”(Adversarial Attack)对 AI 系统的潜在威胁。

8.1 AI 幻觉:一本正经的胡说八道

向 AI 提一个问题,它流畅自信地给出了答案——但答案是错的。这就是”AI 幻觉”。

一、什么是 AI 幻觉?

AI 幻觉(Hallucination)是指大语言模型生成的内容看起来合理、表述流畅,但实际上包含事实性错误、虚构信息或不存在的引用。这一术语借用了心理学中”幻觉”的概念——患者感知到并不存在的事物,且对此深信不疑。AI 的”幻觉”与之类似:模型”感知”到了训练数据中并不存在的事实关联,却以极高的置信度将其呈现出来。

这是 AI 最危险的特性之一——因为它”犯错”的方式和人类截然不同。人类不确定时会犹豫、会说”我不太确定”,但 AI 不会。它会用同样自信的语气说出正确的事实和编造的谎言,令人很难分辨。研究表明,即使是最先进的大语言模型,在事实性问答任务中的幻觉率仍在 3%—15% 之间波动,而在专业领域(如医学、法律)中,这一比例可能更高。

典型表现:

表8-1 AI幻觉的常见类型与示例

类型 示例
虚构事实 编造不存在的历史事件或人物
伪造引用 给出看似真实但实际不存在的论文标题和作者
张冠李戴 将 A 的成就归到 B 身上
过度自信 对不确定的信息给出确定性的表述

二、为什么会产生幻觉?

回顾 1.3 节的内容:大语言模型的本质是基于概率的下一个词预测。它并不”理解”事实,而是根据训练数据中的统计规律,生成”最可能”的下一个词。

这意味着: 当训练数据中某个错误信息出现频率较高时,模型可能会”学会”这个错误;

当模型遇到训练数据中未覆盖的问题时,它不会说”我不知道”,而是会”编造”一个看起来合理的答案;

模型追求的是”语言流畅性”,而非”事实准确性”——它的优化目标是让输出”读起来像对的”,而不是”确保是对的”。

用 1.3 节的比喻来说,AI 是一只”自信的鹦鹉”——它能说出非常流利的话,但并不真正理解自己在说什么。理解这一底层机制,有助于在使用 AI 时保持恰当的警觉。AI 的自信程度与其准确程度之间,并不存在必然的对应关系。

思辨时刻:当”大概率正确”取代了”确定正确”

人类知识体系建立在”可证伪性”之上——一个命题之所以可信,是因为它经受住了反复检验。而 AI 的”知识”建立在统计概率之上——一个回答之所以被输出,是因为它在训练数据中出现的频率最高。这两种”正确”有本质区别:前者追问”为什么对”,后者只关心”像不像对”。当越来越多的人习惯于接受 AI 的”大概率正确”而放弃自己的求证过程时,人类对知识的确定性标准是否正在悄然降低?

三、RAG 如何缓解幻觉

既然幻觉源于模型的”闭卷作答”,那么一个直觉性的解决思路就是:让它”开卷考试”。RAG(Retrieval-Augmented Generation,检索增强生成)正是基于这一思路的技术方案(详见 1.3 节)。

用户提问 → 从知识库中检索相关文档 → 将文档作为参考提供给模型 → 模型基于文档生成回答

RAG 的核心思路是:让模型”开卷考试”,而非”闭卷作答”。当模型的回答有据可查时,幻觉的概率会大幅降低。

第七章中我们在扣子平台搭建的知识库,本质上就是 RAG 的实践应用。

四、信息核查实用方法

即使使用了 RAG,AI 的输出仍然需要人工核查。以下是三种实用的核查方法:

1. 多源验证

对于 AI 给出的关键事实,至少用两个独立信息源进行交叉验证。

AI 说:"中国第一条高铁于 2008 年 8 月 1 日开通。"
→ 验证方式:搜索引擎查询 + 官方新闻报道

2. 溯源查证

要求 AI 给出信息来源,然后去核实来源是否真实存在。

提示词:"请给出你引用的数据来源,包括作者、标题和发表时间。"
→ 然后去学术数据库或搜索引擎验证这些来源是否存在

3. 逻辑检验

检查 AI 的回答是否存在逻辑矛盾或常识性错误。

AI 说:"该公司 2023 年营收 100 亿元,同比增长 50%,
2022 年营收为 80 亿元。"
→ 逻辑检验:80 亿 × 1.5 = 120 亿,而非 100 亿,数据自相矛盾

职场生存核查法:在实际工作中,以上三种方法可以简化为一个快速流程——“30 秒核查法”:①AI 给出的关键数字,立刻搜索验证;②AI 引用的文献或法规,立刻查原文;③AI 的结论如果将影响决策,至少找一位该领域的人确认。养成这个习惯,就能在享受 AI 效率的同时,避免”把 AI 的幻觉写进工作报告”的尴尬。

五、不同领域的幻觉风险

AI 幻觉在不同领域的危害程度不同。以下是几个高风险领域的典型案例:

表8-2 AI幻觉在不同领域的风险

领域 幻觉示例 潜在危害
医疗健康 AI 编造不存在的药物名称或错误的用药剂量 可能危及生命安全
法律咨询 AI 引用不存在的法律条文或判例 可能导致错误的法律决策
学术研究 AI 伪造论文标题、作者和期刊名称 可能导致学术不端
财务分析 AI 编造公司财务数据或市场统计 可能导致错误的投资决策

离你更近的风险:上表中的案例看似遥远,但 AI 幻觉的威胁就在日常学习和工作中。幼儿教育专业的学生如果用 AI 生成的”儿童发展里程碑”数据来设计教案,错误的月龄指标可能误导教学判断;艺术设计专业的学生如果让 AI 介绍某位艺术家的生平,张冠李戴的作品归属会暴露专业素养的缺失;财会专业的学生如果直接引用 AI 给出的税率或会计准则条文,一个小数点的错误就可能在实务中造成严重后果。在自己的专业领域,你就是 AI 输出的最后一道质检关。

真实案例:AI 生成虚假图像引发的社会影响

近年来,每当重大自然灾害发生后,社交媒体上都会出现大量 AI 生成的虚假”现场照片”。这些图片画面极具冲击力,被大量转发。但细心的网友往往能发现破绽:图片中人物手指数量异常(出现六根手指)、建筑透视关系不合理、文字扭曲变形——这些都是当前 AI 生成图像的典型特征。虚假图片的传播不仅误导了公众对灾情的判断,还挤占了真实救援信息的传播空间。

另一个常见的场景是 AI 换脸广告诈骗。不法分子利用 AI 技术将公众人物的面部”嫁接”到虚假广告视频中,伪造名人代言,诱导消费者购买假冒产品或参与投资骗局。受害者往往因为”亲眼看到了视频”而放松了警惕。

实操演示:亲手抓住” AI 的幻觉

第 1 步:向 DeepSeek 提问:“请推荐 3 篇关于大学生 AI 素养教育的中文学术论文,给出作者、标题、期刊和年份。”

第 2 步:将 AI 给出的论文信息逐一到中国知网(cnki.net)或百度学术中搜索验证。

第 3 步:记录验证结果。很可能会发现:部分论文标题看起来很真实,但在数据库中根本找不到——这就是典型的”伪造引用”型幻觉。

核心教训:AI 越是在使用者不熟悉的领域给出”专业”回答,越需要警惕。因为缺乏判断力的地方,恰恰是幻觉最容易蒙混过关的地方。

思政融入:学术诚信与职业操守。AI 伪造引用的现象,对学术诚信提出了新的挑战。如果不加验证地将 AI 生成的”参考文献”写入论文或报告,本质上是一种学术不端行为——即便出错的是机器,署名者才是责任人。“大胆假设、小心求证”的科学精神在 AI 时代不仅没有过时,反而更加重要。无论未来从事什么职业,对自己产出内容的真实性负责,是最基本的职业操守。

主线任务:AI 幻觉侦探

  1. 向 DeepSeek 提出以下问题:“请介绍鲁迅先生的小说《狂人日记》中的主要人物和情节。”
  2. 仔细阅读 AI 的回答,对照原著或权威资料,找出其中的事实性错误;
  3. 再尝试 2—3 个自己熟悉领域的专业问题,记录 AI 的错误类型和频率;
  4. 总结:在哪些类型的问题上,AI 更容易产生幻觉?

8.2 算法偏见:谁的 AI?

AI 不会”歧视”,但训练它的数据和设计它的人可能会。

一、什么是算法偏见?

算法偏见(Algorithmic Bias)是指 AI 系统在决策过程中,对某些群体产生系统性的不公平对待。这种偏见通常不是开发者有意为之,而是隐藏在训练数据和模型设计的各个环节中。

可能会想:AI 是数学和代码构成的,怎么会有”偏见”?关键在于——AI 从数据中学习,而数据来自人类社会。如果社会中存在偏见,数据就会携带偏见,AI 就会”学会”偏见。更危险的是,AI 的偏见被包装在”客观算法”的外衣下,比人类的偏见更难被察觉和质疑。哈佛大学法学院教授凯斯·桑斯坦(Cass Sunstein)将这种现象称为”算法的权威幻觉”——人们倾向于认为机器的判断比人类更公正,从而放松了对其输出结果的审视。

二、五个经典案例

以下案例涵盖了招聘、执法、公共服务、消费和司法等不同领域,展示了算法偏见的普遍性和多样性。

案例一:亚马逊招聘 AI 歧视女性

2018 年,亚马逊被曝其内部使用的 AI 招聘系统对女性候选人存在系统性歧视。该系统在筛选简历时,会自动降低包含”女性”相关词汇(如”女子大学”“女子棋社”)的简历评分。

原因分析:该系统的训练数据来自亚马逊过去 10 年的招聘记录。由于科技行业历史上以男性员工为主,AI 从数据中”学到”了一个错误的规律——男性候选人更”优秀”。

案例二:面部识别的肤色偏差

MIT 研究员 Joy Buolamwini 的研究发现,主流面部识别系统对深色肤色人群的错误率高达 34.7%,而对浅色肤色人群的错误率仅为 0.8%。

原因分析:训练数据中深色肤色的面部图片严重不足,导致模型对这一群体的识别能力远低于其他群体。

案例三:波士顿修路 App 的数据偏差

波士顿市政府开发了一款 App,市民可以通过手机报告路面坑洞,政府据此安排修路优先级。结果发现,富裕社区的道路修复速度远快于低收入社区。

原因分析:富裕社区的居民智能手机普及率更高、使用 App 的意愿更强,因此报告的坑洞数量更多。AI 系统将”报告数量多”等同于”问题更严重”,导致资源分配向富裕社区倾斜。

案例四:“大数据杀熟”

同一款商品或服务,老用户看到的价格比新用户更高;使用高端手机的用户看到的价格比普通手机用户更高。这种现象被称为”大数据杀熟”,本质上是算法基于用户画像进行的价格歧视。

案例五:COMPAS 司法评估系统的种族偏见

美国多个州使用的 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)系统,用于评估犯罪嫌疑人的再犯风险,辅助法官做出保释和量刑决定。调查发现,该系统对非裔美国人的再犯风险评估显著偏高——在实际未再犯的人群中,非裔被错误标记为”高风险”的比例是白人的近两倍。

原因分析:系统的训练数据来自历史司法记录,而美国司法系统长期存在对少数族裔的不平等执法,这些历史偏见被 AI “学习”并放大了。

三、实操演示:亲手检测 AI 的框架效应偏见

框架效应(Framing Effect)是指同一个问题,因为表述方式不同,会导致截然不同的回答。AI 同样存在这种偏见——提问的措辞会显著影响输出的立场和倾向。

第 1 步:向 DeepSeek 提问:“请客观分析核能发电的安全性。”记录 AI 的回答,注意其整体态度是偏正面还是偏负面。

第 2 步:换一种措辞再问:“请客观分析核能发电的危险性。”同样记录回答的态度倾向。

第 3 步:对比两次回答。很可能会发现:

当提问中使用”安全性”时,AI 倾向于列举安全保障措施、技术进步和低事故率;当使用”危险性”时,AI 倾向于强调核泄漏风险、放射性废料处理难题和历史事故。两次回答引用的数据和案例可能完全不同,尽管讨论的是同一个话题。

以下是实际测试中观察到的典型输出对比:

提问”安全性”时的典型 AI 输出示例:

核能发电在安全性方面已取得显著进步。现代核电站配备多重冗余安全系统,第三代核电技术(如 AP1000)采用非能动安全设计,即使在断电情况下也能自动冷却堆芯。根据国际原子能机构数据,核能每千瓦时的死亡率(0.07 人/TWh)远低于煤电(24.6 人/TWh)。目前全球约 10% 的电力来自核能,运行记录总体安全可靠。

提问”危险性”时的典型 AI 输出示例:

核能发电存在不可忽视的安全隐患。切尔诺贝利(1986 年)和福岛(2011 年)事故表明,核事故一旦发生,放射性污染可持续数十年。高放射性核废料的安全处置至今没有公认的最终解决方案,需要隔离储存数千年。此外,核电站遭受恐怖袭击或极端天气的潜在风险也不容忽视。

对比两次回答可以发现,两者引用的数据和案例几乎完全不同,各自强调的面向截然相反,但都以”客观分析”的口吻呈现。这正是框架效应偏见的典型表现——提问方式预设了立场,AI 的回答则强化并放大了这一预设。

第 4 步:继续测试更多话题——“短视频对青少年的益处”vs”短视频对青少年的危害”、“人工智能的发展前景”vs”人工智能的潜在威胁”。记录每组回答的态度差异。

结果分析:AI 并非在”客观分析”,而是在迎合提问者的预设立场。这种框架效应偏见意味着:如果你带着倾向性去提问,AI 会强化你已有的观点,而非提供平衡的视角。这在心理学中被称为”确认偏误的放大器”。

核心教训:使用 AI 辅助决策或写作时,要有意识地从正反两面提问,综合多次回答后再形成判断。单次提问得到的”客观分析”,往往并不客观。

更深一层的警觉:当你不加审视地使用 AI 生成的带有偏见的内容——比如用它写的分析报告发布出去、用它生成的论点写进文章里——你就从偏见的”旁观者”变成了偏见的”传播者”。AI 的偏见只有通过人的手才能进入现实世界,而那双手可能就是你的。

四、偏见从哪里来?

上述案例看似各不相同,但背后的偏见来源可以归纳为四种类型:

表8-3 算法偏见的四种来源

偏见来源 说明 对应案例
数据偏差 训练数据不能代表全部群体 面部识别、亚马逊招聘
样本偏差 数据收集方式导致某些群体被遗漏 波士顿修路 App
标签偏差 人工标注数据时带入主观偏见 内容审核系统
设计偏差 系统设计者的价值观影响算法逻辑 大数据杀熟

翻车现场:2024 年,Google 的 AI 图像生成工具 Gemini 在用户要求生成”美国开国元勋”的图片时,生成了包含多种肤色的人物形象——其中包括深色肤色的乔治·华盛顿。这一”过度纠偏”引发了巨大争议:为了避免种族偏见,AI 反而扭曲了历史事实。Google 不得不紧急下线该功能。这个案例说明,消除偏见并非简单地”反向补偿”,而是需要在事实准确性与公平性之间找到平衡——矫枉过正本身也是一种偏见。

思辨时刻:如何识别和对抗算法偏见?

算法偏见的危险之处在于它的”隐蔽性”——它藏在代码和数据中,不像人类的偏见那样容易被察觉和质疑。

思考以下问题: 1. 假设一名教师使用 AI 系统为学生推荐学习资源,应如何检查系统是否存在偏见? 2. “AI 只是反映了社会中已有的偏见”——这个说法能否成为 AI 偏见的免责理由? 3. 在日常生活中是否遇到过疑似”算法偏见”的情况?(如搜索结果、推荐内容、价格差异)

8.3 数据安全与隐私保护

使用 AI 的同时,AI 也在”使用”用户的数据。

一、为什么数据安全与每个人有关

有人可能觉得”数据安全”是企业和程序员才需要关心的事。但事实上,每一次与 AI 对话,用户都在向远程服务器发送数据。这些数据可能包括个人信息、学习内容、工作文件,甚至是思维方式和行为习惯。据统计,一个活跃的 AI 工具用户每月平均产生数万条对话记录,这些记录中往往无意间包含了大量可识别个人身份的信息。

2023 年,三星电子的工程师将公司内部的半导体源代码粘贴到 ChatGPT 中寻求帮助,导致商业机密泄露。这一事件促使三星全面禁止员工使用外部 AI 工具。类似的事件并非个例——意大利曾因数据隐私问题一度禁止 ChatGPT,多家企业也制定了严格的 AI 使用规范。

另一个值得警惕的案例:2023 年,国内发生了一起利用 AI 换脸技术实施的电信诈骗案。犯罪分子通过 AI 实时换脸和变声技术,在视频通话中伪装成受害人的朋友,仅用 10 分钟就骗走了 430 万元。受害人全程以为自己在和真人朋友视频聊天,完全没有察觉异常。

这些案例说明:数据一旦发送给 AI 平台,用户就失去了对它的完全控制。 更深层的问题是:当 AI 可以完美复制你的脸、你的声音、你的写作风格时,“我是我”这件事还能靠什么来证明?数字身份的可伪造性,正在动摇人际信任的基础——未来,“眼见为实”可能不再成立。因此,学会保护自己的数据,是 AI 时代的必备素养。

二、个人数据如何被收集和使用

使用 AI 工具时,以下数据可能被收集:

表8-4 AI工具可能收集的用户数据类型

数据类型 示例 潜在风险
对话内容 用户与 AI 的所有对话记录 可能被用于模型训练,泄露个人信息
上传文件 文档、图片、音频 文件内容可能被存储在云端服务器
使用行为 使用时间、频率、功能偏好 用于构建用户画像
设备信息 IP 地址、设备型号、操作系统 用于定位和身份关联

关键提醒:不要在 AI 对话中输入以下敏感信息: 身份证号、银行卡号、密码;公司商业机密或未公开的项目信息;他人的隐私信息(未经授权)。

三、对抗性攻击:微小扰动如何欺骗 AI

除了数据泄露风险,AI 系统本身的安全性也值得关注。对抗性攻击(Adversarial Attack)是指通过对输入数据进行微小的、人眼几乎不可察觉的修改,使 AI 模型产生错误判断。这一概念由 Goodfellow 等研究者于 2014 年首次系统提出,此后成为 AI 安全领域的核心研究方向之一。

经典案例:研究人员在一张熊猫图片上添加了极其微小的噪声扰动(人眼完全看不出区别),AI 图像识别系统就将其错误识别为”长臂猿”,且置信度高达 99%。

这意味着什么?

自动驾驶系统可能因路标上的微小贴纸而误判交通标志;

人脸识别系统可能被特制的眼镜或化妆所欺骗;

内容审核系统可能被精心设计的文字变体所绕过。

对抗性攻击揭示了一个重要事实:AI 的”看”和人类的”看”有本质区别——AI 依赖像素级的数学特征,而非真正的”理解”。

四、使用 AI 工具时的安全准则

表8-5 使用AI工具的数据安全准则

准则 具体做法
最小信息原则 只提供完成任务所必需的信息,不多给
脱敏处理 上传数据前,将姓名、电话等替换为化名
阅读隐私政策 了解工具如何存储和使用用户的数据
定期清理 删除不再需要的对话记录和上传文件
选择可信平台 优先使用有明确数据保护承诺的工具

五、法律框架:GDPR 与《个人信息保护法》

表8-6 主要个人信息保护法规对比

法规 适用范围 核心要求
GDPR(欧盟) 处理欧盟居民个人数据的所有组织 数据最小化、目的限制、用户知情同意、被遗忘权
《个人信息保护法》(中国) 处理中国境内个人信息的所有组织 合法正当必要原则、知情同意、最小必要、安全保障

与每位用户相关的权利: 知情权:用户有权知道哪些数据被收集、如何被使用;

同意权:收集个人数据前应征得本人同意;

删除权:用户有权要求删除个人数据;

更正权:用户有权要求更正不准确的个人数据。

这些权利不是摆设:当你发现某个 App 在未经同意的情况下收集了你的位置信息,你可以依据《个人信息保护法》向平台投诉并要求删除;当你在某个 AI 平台上传了文件后想撤回,你有权要求平台删除已存储的数据。大多数正规平台都在”设置—隐私”中提供了数据导出和删除的入口。知道自己有什么权利,是行使权利的第一步。

六、实操演示:数据脱敏实战

在向 AI 提交数据之前,应先对敏感信息进行脱敏处理。以下是一个完整的练习。

第 1 步:假设需要让 AI 帮忙分析以下学生信息表,找出成绩异常的学生:

姓名:张三,学号:2024010001,手机:13812345678,成绩:92
姓名:李四,学号:2024010002,手机:13987654321,成绩:15
姓名:王五,学号:2024010003,手机:13611112222,成绩:88

第 2 步:在发送给 AI 之前,将敏感信息替换为化名:

姓名:学生A,学号:***,手机:***,成绩:92
姓名:学生B,学号:***,手机:***,成绩:15
姓名:学生C,学号:***,手机:***,成绩:88

第 3 步:向 DeepSeek 提问:“以下是三位学生的成绩数据,请帮我分析是否有异常值:学生A 92分,学生B 15分,学生C 88分。”

AI 回答示例:

学生B 的成绩(15分)明显偏低,属于异常值。建议: 1. 确认是否为录入错误(如实际成绩为 51 分,数字颠倒); 2. 如成绩属实,建议与该学生沟通了解原因; 3. 其余两位学生成绩在正常范围内。

关键原则:AI 只需要与任务相关的信息。分析成绩不需要姓名、学号和手机号,因此这些信息完全不必提供。

阅读材料:自动驾驶的电车难题”——代码能预设道德抉择吗?

经典的”电车难题”在自动驾驶时代有了新的版本:一辆自动驾驶汽车即将发生不可避免的碰撞,它只能选择撞向左边的一位老人,或者右边的两个孩子。这个决定应该由谁来做?程序员?车主?还是 AI 自己?

MIT 的”道德机器”(Moral Machine)实验收集了全球数百万人的选择数据,发现不同文化背景的人有着截然不同的道德偏好。这意味着,即使我们想把道德规则写进代码,也无法找到一个”全球通用”的标准。

这个案例提醒我们:有些决策不应该交给 AI,因为它们涉及的不是技术问题,而是价值观问题。


本章小结

本章从 AI 幻觉、算法偏见和数据安全三个维度,系统剖析了 AI 技术的局限与风险。清醒地认识这些问题,不是为了否定 AI 的价值,而是为了学会”带着怀疑去信任”,培养判断力这一 AI 时代最珍贵的素养。

小节 核心内容 关键概念
8.1 AI 幻觉 解析 AI 生成虚假信息的根本原因(概率预测),掌握多源验证和事实核查的方法 AI 幻觉、事实核查、概率预测
8.2 算法偏见 识别 AI 系统中性别、种族、价格歧视等常见偏见形式,理解其社会危害 算法偏见、数据偏见、公平性
8.3 数据安全与隐私保护 掌握使用 AI 工具时的隐私保护措施,理解对抗性攻击对 AI 系统的威胁 数据安全、隐私保护、对抗性攻击

当机器开始模仿人类思考时,人类最珍贵的能力不再是”不出错”,而是”能够判断什么是错”。下一章将从技术视角转向制度与人的视角,探讨 AI 的法律边界、伦理治理与职业未来。

第八章 实践与练习

知道风险,是为了更好地控制风险。

一、选择题

  1. AI 幻觉的本质原因是:
    • A. AI 故意编造信息来欺骗用户
    • B. AI 基于概率预测生成文本,而非真正理解事实
    • C. AI 的计算能力不足
    • D. 用户的提问方式不正确
  2. 以下哪种方法不属于信息核查的有效手段?
    • A. 多源验证:用多个独立信息源交叉验证
    • B. 溯源查证:核实 AI 给出的引用来源是否真实存在
    • C. 直接信任:AI 回答流畅自信,说明信息准确
    • D. 逻辑检验:检查回答中是否存在数据矛盾
  3. 亚马逊招聘 AI 歧视女性的根本原因是:
    • A. 开发者故意编写了歧视性代码
    • B. 训练数据反映了科技行业历史上的性别失衡
    • C. 女性候选人的简历质量确实较低
    • D. AI 系统的算力不足以处理所有简历
  4. 在向 AI 提交数据时,“最小信息原则”是指:
    • A. 尽量少使用 AI 工具
    • B. 只提供完成任务所必需的信息,不多给
    • C. 使用最短的提示词
    • D. 选择最小的 AI 模型

二、简答题

  1. 请用自己的话解释 RAG(检索增强生成)如何缓解 AI 幻觉,并说明为什么即使使用了 RAG,仍然需要人工核查。

  2. 列举算法偏见的四种来源,并各举一个生活中可能遇到的例子。

三、实操题

  1. 幻觉检测:向 DeepSeek 提出 3 个自己熟悉领域的专业问题,记录 AI 的回答,逐一核查其中的事实性错误,并统计错误类型(虚构事实/伪造引用/张冠李戴/过度自信)。

  2. 偏见检测:用 8.2 节的方法,测试 AI 对至少 5 个不同职业的描述,记录每个职业中 AI 默认使用的性别代词,分析是否存在性别刻板印象。

  3. 数据脱敏:准备一份包含个人信息的模拟数据(如班级通讯录),按照 8.3 节的方法进行脱敏处理后再提交给 AI 分析,对比脱敏前后 AI 的分析结果是否有差异。

参考答案(选择题):1-B 2-C 3-B 4-B

四、进阶挑战:辩论赛——AI 与隐私

辩题:为了公共安全(如抓捕逃犯),是否应该允许在所有公共场所部署 AI 面部识别系统?

正方:应该。安全高于隐私。只要不作恶,技术无罪。

反方:不应该。这是对公民隐私的过度侵犯。谁能保证数据不被滥用?

任务:请分别扮演正方和反方,各列出 3 个核心论点。

五、延伸阅读

  1. 书籍:《算法霸权》 [7] (Weapons of Math Destruction) —— 揭示大数据模型如何加剧社会不公
  2. 电影:《监视资本主义:智能陷阱》(The Social Dilemma) —— 了解算法如何操控我们的注意力