附录 C:术语表
全书关键术语的中英文对照与通俗解释,按首字母排序。
A
| 术语 | 英文 | 解释 |
|---|---|---|
| AI 幻觉 | AI Hallucination | 大模型生成的内容看似合理但包含事实性错误或虚构信息 |
| AI 智能体 | AI Agent | 能够自主感知环境、制定计划、执行行动的 AI 系统 |
| AIGC | AI Generated Content | 由人工智能生成的内容,包括文字、图像、音频、视频等 |
| 算法偏见 | Algorithmic Bias | AI 系统在决策中对某些群体产生系统性的不公平对待 |
| 对抗性攻击 | Adversarial Attack | 通过微小扰动使 AI 模型产生错误判断的攻击方式 |
B–C
| 术语 | 英文 | 解释 |
|---|---|---|
| 扩散模型 | Diffusion Model | 从随机噪声逐步去噪生成图像的深度学习模型 |
| 词嵌入 | Word Embedding | 将文字转换为数学向量的技术,使计算机能"理解"语义 |
| 思维链 | Chain of Thought (CoT) | 引导 AI 逐步推理而非直接给出答案的提示技巧 |
| 卷积神经网络 | CNN | 擅长处理图像数据的神经网络结构,能自动提取视觉特征 |
| CO-STAR 框架 | CO-STAR Framework | 提示词设计框架:背景、目标、风格、语气、受众、格式 |
D–F
| 术语 | 英文 | 解释 |
|---|---|---|
| 深度学习 | Deep Learning | 使用多层神经网络进行学习的机器学习方法 |
| 深度伪造 | Deepfake | 利用 AI 生成高度逼真的虚假音视频内容的技术 |
| 数字人 | Digital Human | 通过 AI 生成的虚拟人物形象,可根据文本驱动口型和表情 |
| 微调 | Fine-tuning | 在预训练模型基础上,用特定数据进一步训练以适应具体任务 |
G–K
| 术语 | 英文 | 解释 |
|---|---|---|
| 生成对抗网络 | GAN | 由生成器和判别器对抗训练的深度学习模型,用于生成逼真内容 |
| GPT | Generative Pre-trained Transformer | OpenAI 开发的生成式预训练 Transformer 模型系列 |
| 知识库 | Knowledge Base | Agent 的专属资料库,上传文档后可供检索参考 |
L–M
| 术语 | 英文 | 解释 |
|---|---|---|
| 大语言模型 | Large Language Model (LLM) | 基于海量文本训练的大规模语言模型,如 GPT、DeepSeek |
| 机器学习 | Machine Learning | 让计算机从数据中自动学习规律的技术,无需显式编程 |
| 混合专家模型 | Mixture of Experts (MoE) | 将模型分为多个"专家"模块,每次只激活部分专家以提高效率 |
| 多头注意力 | Multi-Head Attention | Transformer 中同时从多个角度分析输入信息的机制 |
N–P
| 术语 | 英文 | 解释 |
|---|---|---|
| 自然语言处理 | NLP | 让计算机理解和生成人类语言的技术领域 |
| 神经网络 | Neural Network | 模仿人脑神经元连接方式的计算模型 |
| 位置编码 | Positional Encoding | Transformer 中用于标记词语位置信息的技术 |
| 提示词 | Prompt | 用户输入给 AI 的指令或问题,决定 AI 的输出方向 |
R–S
| 术语 | 英文 | 解释 |
|---|---|---|
| RAG | Retrieval-Augmented Generation | 检索增强生成,让模型先检索相关文档再生成回答,减少幻觉 |
| RLHF | Reinforcement Learning from Human Feedback | 基于人类反馈的强化学习,用于对齐模型输出与人类偏好 |
| 自注意力机制 | Self-Attention | Transformer 的核心机制,让模型理解词语之间的关联关系 |
| 符号主义 | Symbolism | 早期 AI 流派,通过逻辑规则和符号推理实现智能 |
| 专家系统 | Expert System | 将人类专家知识编码为规则的早期 AI 系统 |
T–Z
| 术语 | 英文 | 解释 |
|---|---|---|
| Token | Token | 大模型处理文本的基本单位,一个汉字通常对应 1—2 个 Token |
| Transformer | Transformer | 2017 年提出的深度学习架构,是当前大模型的基础 |
| 语音合成 | Text-to-Speech (TTS) | 将文字转换为语音的技术 |
| 工作流 | Workflow | 将复杂任务拆解为多个有序步骤的流程,Agent 的核心组件 |