第九章 AI 的边界与治理——负责任地拥抱未来

本章摘要: AI 是一把双刃剑。如果缺乏约束,它可能成为造假工具、侵权机器甚至社会动荡的根源。谁来给 AI 立规矩?我们该如何在这个被算法接管的世界中找到自己的位置?本章将探讨 AI 时代的法律、伦理与职业前景,帮助读者在变革中既不做技术的奴隶,也不做被时代抛弃的局外人。

知识图谱

第9章知识图谱

导言:失控的列车?

第八章讨论了 AI 的技术局限和风险。本章将视角从”技术”转向”制度”和”人”——当 AI 生成的内容引发版权争议,谁来负责?各国政府如何监管 AI?作为即将走上工作岗位的高职学生,又该如何在 AI 时代找到自己的位置?

有人说,AI 像一列呼啸而来的列车。有人想跳上去当司机(开发者),有人想在车厢里当乘客(使用者),也有人担心被它碾压(失业者)。如果没有红绿灯(法律),没有轨道(伦理),这列火车可能会冲出悬崖。

这些问题没有标准答案,但思考本身就是价值所在。本章探讨的,就是如何为这列火车铺设轨道,确保它驶向造福人类的未来。技术的边界由法律划定,而技术的温度由人的选择决定——每一位 AI 的使用者,都不只是乘客,更是这列火车的轨道铺设者。

学习目标

完成本章学习后,读者将能够:

  1. 辨析 AIGC 内容的版权归属(目前的法律判例),避免侵权风险;
  2. 理解 全球主流的 AI 治理框架(如欧盟《AI 法案》的风险分级理念,中国《生成式人工智能服务管理暂行办法》的核心要求);
  3. 评估 自身职业受 AI 冲击的可能性,并制定提升”人机协作”竞争力的计划;
  4. 树立 “负责任的 AI 使用者”形象,在学术和职场中坚守诚信底线。

9.1 版权、著作权与学术诚信

AI 生成的文章、图片、音乐——它们的”作者”是谁?

一、AIGC 时代的版权困境

传统的版权法建立在一个基本假设之上:作品由”人”创作。这一假设贯穿了从《伯尔尼公约》到各国著作权法的整个知识产权体系。但当 AI 成为创作的主要参与者时,这一延续了数百年的假设受到了根本性的挑战。

为什么版权问题如此重要?因为它直接影响日常使用。用 AI 生成的论文插图能发表吗?用 AI 写的歌词算自己的作品吗?用 AI 设计的 Logo 能注册商标吗?这些问题目前都没有确定的答案。

核心争议:

表9-1 AIGC版权的核心争议

问题 争议焦点
AI 生成内容有版权吗? 各国法律尚无统一定论
版权归谁? 开发者?使用者?还是无人拥有?
AI 训练数据的版权 用受版权保护的作品训练 AI 是否构成侵权?

各国立场对比:

表9-2 各国对AI生成内容版权的立场对比

国家/地区 现行立场
中国 2023 年北京互联网法院判决:AI 生成内容可受著作权保护,权利归使用者(提示词的编写者)
美国 美国版权局明确:纯 AI 生成的内容不受版权保护,但人类有”实质性创造贡献”的部分可以
欧盟 倾向于要求 AI 生成内容必须标注为”AI 生成”

典型案例分析:

2023 年,美国艺术家 Jason Allen 用 AI 绘画工具 Midjourney 生成的作品《太空歌剧院》在科罗拉多州博览会艺术比赛中获得一等奖,引发巨大争议。反对者认为这是”作弊”,支持者则认为 Allen 花费了大量时间调整提示词和筛选结果,这本身就是创作。最终,美国版权局拒绝了该作品的版权注册申请,理由是”缺乏人类创作性”。

这个案例的启示是:提示词的编写是否构成创作”,是当前版权争议的核心问题。 中国法院倾向于认为”是”,美国版权局倾向于认为”不是”——同一个问题,不同国家给出了截然相反的答案。

思辨时刻:当生成一张图只需要 1 秒

如果 AI 能在 1 秒内生成一张图,为什么有人愿意花 3 小时反复调试提示词?因为那 3 小时里投入的是审美判断、风格取舍和对”什么才是好作品”的追问——这些”原动力”和”审美取舍”才是创作中最高级的部分。AI 时代的版权保护,归根结底保护的不是”谁按了生成键”,而是”谁做出了创造性的选择”。理解这一点,有助于建立对原创劳动的尊重:即便工具变了,诚实的智力投入永远值得被珍视。

二、学生使用 AI 的学术诚信边界

版权问题关乎创作者的权益,而学术诚信则关乎学习者的品格。3.5 节已经讨论了 AI 辅助写作的边界,这里从制度层面进一步明确。随着 AI 工具在校园中的普及,全球高校正在加速制定相关规范。2023 年的一项调查显示,超过 60% 的大学生承认在学业中使用过生成式 AI 工具,但其中仅有不到一半的人了解所在学校的相关政策。

多数高校的共识性规则:

  1. 必须标注:使用 AI 辅助完成的作业或论文,应明确标注 AI 参与的环节和方式;
  2. 核心原创:论文的核心观点、论证逻辑和创新贡献必须是学生本人的;
  3. 禁止代写:将 AI 生成的内容直接作为自己的作品提交,属于学术不端;
  4. 教师授权:部分课程可能对 AI 使用有特殊限制,应遵守任课教师的具体要求。

学术诚信自查清单:

在提交使用了 AI 辅助的作业或论文前,请逐项检查:

□ 核心观点和论证逻辑是自己独立思考的,而非直接复制 AI 输出?

□ AI 生成的内容已逐句核实,确认事实准确?

□ 已明确标注了哪些环节使用了 AI、使用了什么工具?

□ 没有将 AI 生成的文本直接作为自己的原创内容提交?

□ 已确认任课教师允许在本次作业中使用 AI?

如果以上任何一项的答案是”否”,需要在提交前进行修改。

建议的标注格式:

本文在以下环节使用了 AI 辅助:
- 文献检索与摘要整理(工具:DeepSeek)
- 语法润色与表达优化(工具:ChatGPT)
核心观点、论证逻辑和数据分析均由作者独立完成。

三、教师使用 AI 的职业伦理

作为未来的教育工作者,师范生还需要思考教师使用 AI 的伦理边界:

表9-3 教师使用AI的典型场景与伦理考量

场景 伦理考量
用 AI 辅助备课 ✅ 合理,但应确保教学内容的准确性
用 AI 批改作业 需谨慎,AI 可能无法理解学生的创意表达
用 AI 生成试题 ✅ 合理,但需人工审核题目质量和难度
用 AI 评估学生能力 需警惕算法偏见对学生的不公平影响
用 AI 替代教学互动 ❌ 教育的核心是人与人的连接,不可替代

总的来说,无论是版权归属、学术诚信还是教师职业伦理,核心原则是一致的:AI 是工具,人是主体。 使用 AI 时,需要对产出内容的准确性、原创性和合规性承担最终责任。随着法律法规的逐步完善,这些边界会越来越清晰,但”诚实标注、独立思考、人工审核”这三条底线不会改变。

9.2 全球 AI 治理框架

AI 的发展速度远快于法律的制定速度——但各国正在加速追赶。

有人可能觉得”AI 治理”是政府和企业的事,跟普通人没什么关系。但事实上,这些法规直接影响每天使用的 AI 工具。例如:欧盟的 AI 法案要求聊天机器人必须告知用户”你正在与 AI 对话”;中国的管理办法要求 AI 生成的图片必须添加水印标识。这些规则正在改变人们与 AI 交互的方式。

一、美国:《人工智能权利法案蓝图》

2022 年 10 月,美国白宫发布《人工智能权利法案蓝图》(Blueprint for an AI Bill of Rights),提出五项核心原则:

表9-4 美国《AI权利法案蓝图》五项核心原则

原则 内容
安全有效的系统 AI 系统应经过充分测试,确保安全性
算法歧视保护 AI 不应基于种族、性别等因素进行歧视
数据隐私 用户应能控制自己的数据如何被使用
通知与解释 用户有权知道 AI 系统正在被使用,并获得解释
人工替代方案 用户有权选择退出 AI 系统,转而与人类交互

特点:该文件是”蓝图”而非法律,不具有强制约束力,体现了美国偏向”行业自律”的监管思路。

二、欧盟:《人工智能法案》

2024 年,欧盟正式通过《人工智能法案》(AI Act),这是全球首部全面的 AI 监管法律。2025 年 2 月起,该法案开始分阶段执行——首先禁止”不可接受风险”类 AI 应用(如社会信用评分),2025 年 8 月起对通用 AI 模型(如 GPT、Gemini)实施透明度义务,2026 年起全面执行高风险 AI 系统的合规要求。违规企业最高可被处以全球年营业额 6% 或 3500 万欧元的罚款(取较高者)。其核心是风险分级监管

表9-5 欧盟《AI法案》风险分级监管框架

风险等级 示例 监管要求
不可接受风险 社会信用评分系统、实时远程生物识别 禁止使用
高风险 招聘筛选、信用评估、司法辅助 严格合规要求,需注册、审计、透明度报告
有限风险 聊天机器人、AI 生成内容 需标注”由 AI 生成”
最低风险 垃圾邮件过滤、游戏 AI 无特殊要求

特点:欧盟采取”预防性监管”思路,在 AI 造成伤害之前就设定规则。

三、中国:《生成式人工智能服务管理暂行办法》

2023 年 8 月,中国实施《生成式人工智能服务管理暂行办法》,核心要求包括:

表9-6 中国《生成式人工智能服务管理暂行办法》核心要求

要求 说明
内容合规 生成内容不得违反法律法规和社会公德
数据合规 训练数据应合法获取,不得侵犯知识产权
标识义务 AI 生成的内容应进行显著标识
用户保护 不得过度收集用户信息,应保障用户权益
算法备案 具有舆论属性的 AI 服务需进行算法备案

中国是全球最早针对生成式 AI 出台专门管理办法的国家之一,体现了”既鼓励创新又守住底线”的治理智慧。这些法规并不是要限制普通人使用 AI,而是为数字世界设立”红绿灯”——保护每个人的创作不被滥用、隐私不被侵犯、不被虚假信息误导。理解这一点,就能把宏观法规转化为个人行为准则:标注 AI 生成内容是”绿灯”行为,用 AI 伪造他人身份是”红灯”行为。

四、三种监管模式的对比

三大经济体的监管路径差异,反映了各自在”促进创新”与”防范风险”之间的不同权衡。理解这些差异,有助于在全球化背景下把握 AI 治理的整体格局。

表9-7 三大经济体AI监管模式对比

维度 美国 欧盟 中国
监管力度 较宽松(行业自律) 最严格(立法先行) 适中(分类管理)
核心关切 创新与竞争力 公民权利与安全 内容安全与社会稳定
法律效力 蓝图/行政令(非强制) 正式法律(强制) 部门规章(强制)

五、这些法规与普通人有什么关系?

AI 治理框架看似宏观,但它们正在改变每个人的日常体验:

表9-8 AI治理法规对日常使用场景的影响

日常场景 受到的法规影响
使用 AI 生成图片发朋友圈 中国要求 AI 生成内容添加标识,未标注可能违规
用 AI 写论文摘要 多数高校要求标注 AI 使用情况,否则视为学术不端
AI 推荐用户看的短视频 中国《互联网信息服务算法推荐管理规定》要求平台提供关闭算法推荐的选项
求职时被 AI 筛选简历 欧盟 AI 法案将招聘 AI 列为”高风险”,要求透明度和人工审核

实际案例:2024 年,国内多个短视频平台开始在 AI 生成的内容上添加”AI 生成”水印标识。这正是《生成式人工智能服务管理暂行办法》中”标识义务”条款的落地。如果在这些平台上发布 AI 生成的视频却未标注,可能面临内容被下架的风险。

思辨时刻:技术中立是神话吗?谁在决定 AI 的价值观?

“技术是中立的,关键看人怎么用”——这是一个常见的说法。但事实真的如此吗?

思考以下问题: 1. AI 的训练数据由人选择,算法由人设计,评估标准由人制定——在这个过程中,“中立”是否可能? 2. 当不同国家对 AI 的监管标准不同时,一家跨国 AI 公司应该遵守哪个标准? 3. 如果有权为 AI 制定一条规则,会制定什么?

9.3 AI 时代的职业素养与师范担当

与其担心”AI 会不会取代我”,不如思考”我如何与 AI 协作,做得比以前更好”。

一、AI 对职业的影响:替代的是任务,不是人

在讨论”AI 会取代哪些职业”之前,我们需要纠正一个常见的误解。AI 替代的从来不是整个职业,而是职业中的某些任务。以教师为例:AI 可以替代”批改选择题”这个任务,但无法替代”鼓励一个失去信心的学生”这个任务。理解这一点,就不会盲目恐慌,而是能有针对性地提升自己难以被机器取代的能力。

麦肯锡全球研究院的分析表明,在当前技术条件下,约 60% 的职业中有至少 30% 的工作任务可以被自动化,但只有不到 5% 的职业能够被完全自动化。换言之,绝大多数职业不会消失,但几乎所有职业都会被重新定义。

AI 对不同职业的影响程度取决于该职业的”可自动化程度”:

表9-9 AI对不同类型职业的冲击程度

受冲击程度 职业特征 典型职业
规则明确、重复性强、数据驱动 数据录入、基础翻译、初级客服、简单设计
需要一定专业判断,但部分环节可自动化 会计、法律助理、新闻编辑、初级程序员
需要创造力、情感连接、复杂决策 教师、心理咨询师、艺术家、科研人员

关键洞察:被自动化取代的是”任务”,不是”职业”。即使在受冲击较大的职业中,也有机器做不了的环节;而在看似安全的职业中,也有大量任务可以被 AI 加速。对于师范生而言,这意味着未来的教学工作不会被 AI 取代,但工作方式必然会发生深刻变化。

二、“防御机器人”的核心竞争力

既然 AI 替代的是任务而非职业,那么关键问题就变成了:哪些能力是机器无法替代的?美国东北大学校长约瑟夫·奥恩(Joseph Aoun)提出了”防御机器人”(Robot-Proof)的教育理念 [5]——培养学生具备机器无法复制的能力,使其在智能时代保持竞争力。

这一理念围绕三大新素养展开:

1. 科技素养(Technological Literacy)

不是要求每个人都成为程序员,而是理解数字技术的基本原理和运作逻辑。正如现代公民需要基本的读写能力一样,AI 时代的公民需要理解算法、数据和人机交互的基本概念,才能在技术驱动的社会中做出明智的判断。

2. 数据素养(Data Literacy)

能够读取、分析和利用数据进行决策的能力。AI 的输出说到底是基于数据的概率推断,如果不具备评估数据质量和分析结论的能力,就只能被动接受 AI 的判断,而无法对其进行有效的审视和纠偏。

3. 人文素养(Humanics)

这是”防御机器人”教育中最关键的一环。它强调沟通、共情、设计思维、讲故事以及与人相处的能力。AI 擅长”收敛性思维”——在已知条件下找到最优解;而人类擅长”发散性思维”——从无到有地创造新事物、提出新问题。教育的目标应当是培养创造者,而不是单纯的劳动力。

在此基础上,以下三种具体能力构成了人类独有的关键能力:

表9-10 人类独有能力与AI局限对比

能力维度 人类优势 AI 局限
批判性思维 能判断答案是否正确、合理、符合情境 只能生成答案,无法评估答案的适用性
创造力 提出全新问题,打破既有范式 只能组合已有模式,无法实现真正的原创
情感智能 理解情绪、建立信任、共情回应 可以模拟情感表达,但不具备真正的情感体验

能力重心的迁移:如果把职业能力画成一张雷达图,传统时代的高分项是记忆力、计算速度、信息检索——这些恰恰是 AI 最擅长的。而 AI 时代的高分项转向了批判思考、共情力、创造力、复杂问题解决和伦理判断——这些则是人类独有的。学习的重心必须随之转移:从”储存知识”走向”运用判断”,从”执行指令”走向”提出问题”。

传统能力重心                AI 时代能力重心
  记忆力   ★★★★★             记忆力   ★★
  计算速度 ★★★★★             计算速度 ★
  信息检索 ★★★★              信息检索 ★
  批判思考 ★★                批判思考 ★★★★★
  共情力   ★★                共情力   ★★★★★
  创造力   ★★★               创造力   ★★★★★
  伦理判断 ★★                伦理判断 ★★★★

三、教师角色的四重转型

AI 时代还需要老师吗?答案是肯定的,但教师的角色正在经历根本性的重塑。研究者将这一变化概括为四重转型:

1. 从知识权威”到信源导游”

在信息匮乏的时代,教师是知识的主要来源;而在信息过载的今天,学生缺的不是知识,而是在海量信息中筛选、判断和整合的能力。教师的任务从”传授知识”转变为”引领探索”——帮助学生在信息迷茫时修正路径,筛选优质资源,构建属于自己的知识网络。

2. 从课堂主导者”到学习设计师”

传统课堂中,教师是教学活动的中心。而在人机协同的课堂中,教师的主要工作是设计学习体验——确定学习目标、选择合适的 AI 工具、设计人机协作的流程、评估学习效果。教师不再是”演员”,而是”导演”。

3. 从”标准化生产”到”生态化培育”

有学者将这一转变形象地比喻为从”工业化”到”农业化”的转型。工业化教育像流水线,按固定目标、统一模式批量培养学生;而农业化教育像种地,每颗种子都不同,需要因材施教、耐心培育。AI 正好能帮助教师实现这种个性化教育——通过数据分析精准定位每个学生的学习规律,让教师把精力集中在最需要人类关怀的地方。

4. 从”教学关系”到”学伴关系”

在 AI 承担了大量知识传授任务之后,教师与学生的关系也在发生变化。教师逐渐成为学生的”资深辅助者”(解决资源和技术问题)、“困惑帮助者”(解释歧义、澄清误解)和”学习历程导师”(调节情绪、克服挫败感)。这种”学伴关系”比传统的师生关系更加平等、更加注重情感连接。

知识传授者 → 信源导游(引领探索)
课堂主导者 → 学习设计师(设计体验)
标准化生产 → 生态化培育(因材施教)
教学关系   → 学伴关系(情感连接)

四、人机协同教学:分工与共生

未来的教育不会走向机器取代人,而会走向”教师 + AI”的协作共生。理解人机各自的优势边界,是实现有效协同的前提。

表9-11 人机协同教学的分工框架

维度 AI 负责(效率与精准) 教师负责(意义与情感)
知识层面 知识图谱构建、标准问题即时回答 知识的情境化解读、跨学科联系
评价层面 作业自动批改、错题分析、学情数据采集 复杂情境下的综合评价、成长性评估
个性化层面 自适应学习路径推荐、薄弱点诊断 情感关怀、心理疏导、生涯规划指导
价值观层面 道德引导、社会责任感培养、人文素养熏陶

真实案例:佐治亚理工学院的Jill Watson”

佐治亚理工学院的一位教授在网络课程中安排了一个名为”Jill Watson”的 AI 聊天机器人担任助教。它在后台回答学生关于课程安排、作业要求等常规问题,由于回复准确且语气自然,学生在很长一段时间内并未察觉它是机器人。这个案例完美诠释了人机协同的理想分工:AI 处理高频、标准化的事务性问题,人类教师则专注于深层互动、创造性讨论和个别化指导。

五、师范生的特殊责任与能力框架

作为未来的教育工作者,师范生在 AI 时代承担着双重责任:既要学会使用 AI 提升教学效率,又要引导学生正确认识和使用 AI。为此,师范生需要构建一套全新的能力结构。

师范生应具备的 AI 素养框架:

表9-12 师范生应具备的AI素养框架

素养维度 具体要求 对应能力
科技素养 理解 AI 的基本原理,掌握主流 AI 工具的使用方法 工具使用、计算思维
数据素养 能读取和分析学情数据,基于数据优化教学决策 学情诊断、精准教学
人文素养 关注学生的情感需求,培养沟通与共情能力 情感关怀、价值引导
批判素养 能识别 AI 输出中的错误和偏见,不盲目信任 信息甄别、独立判断
伦理素养 理解 AI 使用的伦理边界,以身作则 隐私保护、公平意识
融合素养 能设计将 AI 融入课堂的教学方案 教学设计、资源协同

非师范生的职业迁徙力”:以上框架聚焦于师范生,但 AI 对职业的重塑是全局性的。无论学什么专业,未来的工作场景中你可能不只是管理人类同事,还要管理一队 AI Agent——给它们分配任务、审核它们的输出、在它们犯错时做出判断。这需要三种跨专业的通用能力:跨学科的知识视野(理解 AI 能做什么和不能做什么)、清晰的决策逻辑(在 AI 给出多个方案时做出取舍)、以及坚定的伦理红线(知道哪些事不能交给机器决定)。这三种能力,就是 AI 时代的”职业迁徙力”——无论行业如何变化,它们都能帮你站稳脚跟。

教师独有的价值:

尽管 AI 在计算速度和信息存储上远超人类,但教师在以下方面具有独特优势:

创造力与发散性思维:AI 擅长在已知条件下找最优解,而教育需要激发学生从无到有地创造新事物、提出新问题。

情感理解与共情:教师的关爱、眼神交流、对学生情绪的敏锐捕捉,是机器无法模拟的。一个鼓励的眼神、一次课后的谈心,往往比任何算法都更能改变一个学生的人生轨迹。社会学中有一个概念叫”情感劳动”(Emotional Labor)——教师每天都在进行大量的情感劳动:安抚焦虑的家长、鼓励受挫的孩子、化解同学间的矛盾。AI 可以精准地纠正一个孩子的错别字,但它无法理解孩子写错字背后的挫败感,更无法给出”人的回应”。这种”看见情绪”的能力,才是师范生在 AI 时代最硬的底层能力。

价值观与伦理引导。涉及道德、伦理、社会责任等价值观教育时,必须由人类教师来引导。AI 无法承担”立德树人”的主体责任。

系统思维与全人关怀:教师能够跳出数据,结合家庭背景、身体状况、同伴关系等非数据要素,对学生进行”全人”视角的系统思考。AI 提供的是导航(最优路径),而教师帮助学生寻找的是”行走的意义”。

思政融入:立德树人与师范担当:习近平总书记提出的”四有好老师”标准——有理想信念、有道德情操、有扎实学识、有仁爱之心——在 AI 时代具有更深远的意义。当知识获取变得唾手可得,教师的价值重心正从”传授知识”转向”塑造灵魂”。作为未来的教育工作者,不仅要学会使用 AI 提升教学效率,更要坚守”立德树人”的根本使命,引导学生在信息洪流中明辨是非、在技术变革中坚守人文关怀。这是任何算法都无法替代的教育力量。

六、实操演示:设计一堂 AI 融合教学方案

以下是一个将 AI 融入小学语文课堂的教学设计示例,展示”人机协作”的教学模式。

教学主题:三年级语文《秋天的雨》拓展写作

第 1 步:教师用传统方式完成课文讲解,引导学生理解”秋天的雨”的修辞手法(拟人、比喻)。

第 2 步:布置写作任务——“请用类似的修辞手法,写一段关于’冬天的风’的短文”。学生先独立写作 15 分钟。

第 3 步:学生将自己的作文输入 DeepSeek,使用提示词:“请指出这段作文中修辞手法的使用情况,哪些地方用得好,哪些地方可以改进。不要直接改写,只给出建议。”

AI 反馈示例:

你的作文中有两处比喻用得很好:“冬天的风像一把刀”形象生动。建议改进的地方:第二段可以尝试加入拟人手法,比如让”风”有动作或情感,这样文章会更有层次感。

第 4 步:学生根据 AI 的建议修改作文,然后在小组内互相朗读、讨论。

第 5 步:教师点评优秀作品,重点讨论——“AI 的建议同学们采纳了哪些?拒绝了哪些?为什么?”

设计要点:这个方案中,AI 扮演的是”学习助手”而非”代写工具”。学生仍然是写作的主体,AI 只提供反馈建议。教师的角色是设计学习流程、引导讨论、培养学生的判断力。

思辨时刻:穷学校买高科技 vs 买齐教材

有学者记录了这样一个案例 [2]:某些发展中地区的学校在经费有限的情况下,将大量资金投入购买平板电脑和 AI 教学系统,却连基本的教材和文具都配备不齐。技术供应商宣称”一台平板可以替代所有教科书”,但实际效果远不如预期。

这个案例揭示了”技术解决主义”(Technological Solutionism)的陷阱——认为技术可以解决一切问题,而忽视了教育的复杂性和基础条件的重要性。

思考以下问题: 1. 在教育资源有限的情况下,应该优先投资技术设备还是基础教学条件? 2. “AI 可以让教育更公平”——这个说法成立的前提条件是什么? 3. 作为未来的教师,应如何在”拥抱技术”和”回归教育本质”之间找到平衡?

阅读材料:主要捐赠者地图——技术不能自动带来社会变革

全球教育技术领域的主要资金来源高度集中于少数科技公司和基金会。这些捐赠者往往倾向于推广技术解决方案,因为这与他们的商业利益一致。但研究表明,单纯引入技术设备而不配套教师培训、课程改革和制度支持,对教学质量的提升效果非常有限。

真正有效的教育改革,需要技术、制度和人三者的协同。技术是工具,制度是保障,而人——特别是教师——才是教育的灵魂。


本章小结

本章将视角从技术转向制度与人,围绕版权归属、全球治理框架和职业素养三个议题,探讨如何在 AI 时代负责任地拥抱未来。技术的边界由法律划定,而技术的温度由人的选择决定。

小节 核心内容 关键概念
9.1 版权、著作权与学术诚信 辨析 AIGC 内容的版权归属与当前法律判例,明确学术写作中 AI 使用的诚信底线 AIGC 版权、著作权、学术诚信
9.2 全球 AI 治理框架 梳理欧盟《AI 法案》、中国《生成式人工智能服务管理暂行办法》等主流治理方案 AI 治理、风险分级、监管框架
9.3 AI 时代的职业素养与师范担当 评估 AI 对职业的影响,提出提升”人机协作”竞争力的路径 人机协作、职业素养、不可替代能力

每一位 AI 的使用者,都不只是技术列车的乘客,更是轨道的铺设者。全书九章至此完结,愿读者带着批判精神与创新勇气,在 AI 时代找到属于自己的位置。

第九章 实践与练习

未来已来,只是分布不均。希望你是那个先看到未来的人。

一、选择题

  1. 关于 AI 生成内容的版权,以下说法正确的是:
    • A. AI 生成的内容在全球范围内都受版权保护
    • B. 各国对 AI 生成内容的版权归属尚无统一定论
    • C. AI 生成的内容版权一律归 AI 开发者所有
    • D. AI 生成的内容不可能受到任何法律保护
  2. 欧盟《人工智能法案》的核心监管思路是:
    • A. 完全禁止所有 AI 应用
    • B. 按风险等级对 AI 进行分级监管
    • C. 由企业自行决定是否遵守
    • D. 只监管政府部门使用的 AI
  3. 在 AI 时代,以下哪项不属于人类的核心竞争力?
    • A. 批判性思维
    • B. 快速记忆大量数据
    • C. 创造力
    • D. 情感智能
  4. 关于学生使用 AI 辅助写作,以下做法正确的是:
    • A. 直接将 AI 生成的内容作为自己的作品提交
    • B. 使用 AI 辅助后明确标注 AI 参与的环节和方式
    • C. 只要不被发现就可以不标注
    • D. 所有课程都禁止使用 AI

二、简答题

  1. 请对比中国、美国、欧盟三种 AI 监管模式的核心差异,并说明哪种模式更适合当前的 AI 发展阶段,为什么?

  2. “AI 时代还需要老师吗?”请从教师角色转变的角度回答这个问题,并举例说明教师在哪些方面是 AI 无法替代的。

三、实操题

  1. 版权分析:用 AI 生成一张图片和一段 200 字的文章,然后查阅中国和美国的相关法规,分析这两项内容在两个国家分别是否受版权保护,写出分析结论。

  2. 教学方案设计:参考 9.3 节的示例,为所学专业的某一门课程设计一个”AI 融合教学方案”。要求:明确 AI 在哪个环节参与、扮演什么角色,以及教师在整个过程中的不可替代作用。

  3. AI 素养自评:回顾本书九章的内容,对照 9.3 节”师范生应具备的 AI 素养”表格,为自己在每个维度打分(1-5 分),并为得分最低的维度制定一个具体的提升计划。

参考答案(选择题):1-B 2-B 3-B 4-B

四、进阶挑战:全书综合项目

题目:校园 AI 助手发布会

要求:假设你和你的小组开发了一个校园 AI 助手(基于第 7 章的成果)。现在要举办一场发布会。你需要提交一套完整的发布会材料:

  1. 策划案(第 3 章):发布会流程、预算。
  2. 海报(第 4 章):发布会宣传海报。
  3. 宣传视频(第 5 章):30 秒的产品预告片。
  4. 演示 Demo(第 7 章):现场演示 Bot 的功能。
  5. 风险声明(第 8/9 章):在产品说明书中加入”免责条款”和”数据隐私承诺”。

五、我的数字公民宣言

学完全书九章,你已经了解了 AI 的能力、局限、风险和治理。现在,请基于你的学习和思考,写下自己与 AI 协作的三条准则。

示例(仅供参考,请用自己的话写):

“我承诺不利用 AI 编造事实,对自己发布的每一条信息负责。”

“我承诺在使用 AI 辅助完成的作品中,始终诚实标注 AI 的参与。”

“我承诺在 AI 给出答案时,保留自己追问和质疑的权利。”

请写下你的三条准则:




这不是一道有标准答案的题目,而是一份与自己的约定。当通识教育转化为内在的行为准则时,学习才真正发生。

六、结语

恭喜你完成了本书的学习!这不仅是一门课的结束,更是你 AI 之旅的开始。保持学习,保持思考,保持人类的尊严。