8.3 数据安全与隐私保护

你在使用 AI 的同时,AI 也在"使用"你的数据。

一、为什么数据安全与你有关

你可能觉得"数据安全"是企业和程序员才需要关心的事。但事实上,每一次与 AI 对话,你都在向远程服务器发送数据。这些数据可能包括你的个人信息、学习内容、工作文件,甚至是你的思维方式和行为习惯。据统计,一个活跃的 AI 工具用户每月平均产生数万条对话记录,这些记录中往往无意间包含了大量可识别个人身份的信息。

2023 年,三星电子的工程师将公司内部的半导体源代码粘贴到 ChatGPT 中寻求帮助,导致商业机密泄露。这一事件促使三星全面禁止员工使用外部 AI 工具。类似的事件并非个例——意大利曾因数据隐私问题一度禁止 ChatGPT,多家企业也制定了严格的 AI 使用规范。

另一个触目惊心的案例:2023 年,内蒙古包头市发生了一起利用 AI 换脸技术实施的电信诈骗案。犯罪分子通过 AI 实时换脸和变声技术,在视频通话中伪装成受害人的朋友,仅用 10 分钟就骗走了 430 万元。受害人全程以为自己在和真人朋友视频聊天,完全没有察觉异常。

这些案例说明:数据一旦发送给 AI 平台,你就失去了对它的完全控制。 因此,学会保护自己的数据,是 AI 时代的必备素养。

二、个人数据如何被收集和使用

当你使用 AI 工具时,以下数据可能被收集:

数据类型 示例 潜在风险
对话内容 你与 AI 的所有对话记录 可能被用于模型训练,泄露个人信息
上传文件 文档、图片、音频 文件内容可能被存储在云端服务器
使用行为 使用时间、频率、功能偏好 用于构建用户画像
设备信息 IP 地址、设备型号、操作系统 用于定位和身份关联

关键提醒:不要在 AI 对话中输入以下敏感信息:

  • 身份证号、银行卡号、密码;
  • 公司商业机密或未公开的项目信息;
  • 他人的隐私信息(未经授权)。

三、对抗性攻击:微小扰动如何欺骗 AI

除了数据泄露风险,AI 系统本身的安全性也值得关注。对抗性攻击(Adversarial Attack)是指通过对输入数据进行微小的、人眼几乎不可察觉的修改,使 AI 模型产生错误判断。这一概念由 Goodfellow 等研究者于 2014 年首次系统提出,此后成为 AI 安全领域的核心研究方向之一。

经典案例:研究人员在一张熊猫图片上添加了极其微小的噪声扰动(人眼完全看不出区别),AI 图像识别系统就将其错误识别为"长臂猿",且置信度高达 99%。

这意味着什么?

  • 自动驾驶系统可能因路标上的微小贴纸而误判交通标志;
  • 人脸识别系统可能被特制的眼镜或化妆所欺骗;
  • 内容审核系统可能被精心设计的文字变体所绕过。

对抗性攻击揭示了一个重要事实:AI 的"看"和人类的"看"有本质区别——AI 依赖像素级的数学特征,而非真正的"理解"。

四、使用 AI 工具时的安全准则

准则 具体做法
最小信息原则 只提供完成任务所必需的信息,不多给
脱敏处理 上传数据前,将姓名、电话等替换为化名
阅读隐私政策 了解工具如何存储和使用你的数据
定期清理 删除不再需要的对话记录和上传文件
选择可信平台 优先使用有明确数据保护承诺的工具

五、法律框架:GDPR 与《个人信息保护法》

法规 适用范围 核心要求
GDPR(欧盟) 处理欧盟居民个人数据的所有组织 数据最小化、目的限制、用户知情同意、被遗忘权
《个人信息保护法》(中国) 处理中国境内个人信息的所有组织 合法正当必要原则、知情同意、最小必要、安全保障

与你相关的权利:

  • 知情权:你有权知道哪些数据被收集、如何被使用;
  • 同意权:收集你的数据前应征得你的同意;
  • 删除权:你有权要求删除你的个人数据;
  • 更正权:你有权要求更正不准确的个人数据。

六、实操演示:数据脱敏实战

在向 AI 提交数据之前,你应该先对敏感信息进行脱敏处理。以下是一个完整的练习。

第 1 步:假设你需要让 AI 帮你分析以下学生信息表,找出成绩异常的学生:

📷 【截图位置】:DeepSeek 对话界面中展示数据脱敏前后对比及 AI 分析结果的截图(建议尺寸:宽度占满页面)

姓名:张三,学号:2024010001,手机:13812345678,成绩:92
姓名:李四,学号:2024010002,手机:13987654321,成绩:15
姓名:王五,学号:2024010003,手机:13611112222,成绩:88

第 2 步:在发送给 AI 之前,将敏感信息替换为化名:

姓名:学生A,学号:***,手机:***,成绩:92
姓名:学生B,学号:***,手机:***,成绩:15
姓名:学生C,学号:***,手机:***,成绩:88

第 3 步:向 DeepSeek 提问:"以下是三位学生的成绩数据,请帮我分析是否有异常值:学生A 92分,学生B 15分,学生C 88分。"

AI 回答示例:

学生B 的成绩(15分)明显偏低,属于异常值。建议:

  1. 确认是否为录入错误(如实际成绩为 51 分,数字颠倒);
  2. 如成绩属实,建议与该学生沟通了解原因;
  3. 其余两位学生成绩在正常范围内。

关键原则:AI 只需要与任务相关的信息。分析成绩不需要姓名、学号和手机号,因此这些信息完全不必提供。


阅读材料:自动驾驶的"电车难题"——代码能预设道德抉择吗?

经典的"电车难题"在自动驾驶时代有了新的版本:一辆自动驾驶汽车即将发生不可避免的碰撞,它只能选择撞向左边的一位老人,或者右边的两个孩子。这个决定应该由谁来做?程序员?车主?还是 AI 自己?

MIT 的"道德机器"(Moral Machine)实验收集了全球数百万人的选择数据,发现不同文化背景的人有着截然不同的道德偏好。这意味着,即使我们想把道德规则写进代码,也无法找到一个"全球通用"的标准。

这个案例提醒我们:有些决策不应该交给 AI,因为它们涉及的不是技术问题,而是价值观问题。

results matching ""

    No results matching ""