全书关键术语的中英文对照与通俗解释,按首字母排序。
A
| AI 幻觉 |
AI Hallucination |
大模型生成的内容看似合理但包含事实性错误或虚构信息 |
| AI 智能体 |
AI Agent |
能够自主感知环境、制定计划、执行行动的 AI 系统 |
| AIGC |
AI Generated Content |
由人工智能生成的内容,包括文字、图像、音频、视频等 |
| 算法偏见 |
Algorithmic Bias |
AI 系统在决策中对某些群体产生系统性的不公平对待 |
| 对抗性攻击 |
Adversarial Attack |
通过微小扰动使 AI 模型产生错误判断的攻击方式 |
B–C
| 扩散模型 |
Diffusion Model |
从随机噪声逐步去噪生成图像的深度学习模型 |
| 词嵌入 |
Word Embedding |
将文字转换为数学向量的技术,使计算机能”理解”语义 |
| 思维链 |
Chain of Thought (CoT) |
引导 AI 逐步推理而非直接给出答案的提示技巧 |
| 卷积神经网络 |
CNN |
擅长处理图像数据的神经网络结构,能自动提取视觉特征 |
| CO-STAR 框架 |
CO-STAR Framework |
提示词设计框架:背景、目标、风格、语气、受众、格式 |
D–F
| 深度学习 |
Deep Learning |
使用多层神经网络进行学习的机器学习方法 |
| 深度伪造 |
Deepfake |
利用 AI 生成高度逼真的虚假音视频内容的技术 |
| 数字人 |
Digital Human |
通过 AI 生成的虚拟人物形象,可根据文本驱动口型和表情 |
| 微调 |
Fine-tuning |
在预训练模型基础上,用特定数据进一步训练以适应具体任务 |
G–K
| 生成对抗网络 |
GAN |
由生成器和判别器对抗训练的深度学习模型,用于生成逼真内容 |
| GPT |
Generative Pre-trained Transformer |
OpenAI 开发的生成式预训练 Transformer 模型系列 |
| 知识库 |
Knowledge Base |
Agent 的专属资料库,上传文档后可供检索参考 |
L–M
| 大语言模型 |
Large Language Model (LLM) |
基于海量文本训练的大规模语言模型,如 GPT、DeepSeek |
| 机器学习 |
Machine Learning |
让计算机从数据中自动学习规律的技术,无需显式编程 |
| 混合专家模型 |
Mixture of Experts (MoE) |
将模型分为多个”专家”模块,每次只激活部分专家以提高效率 |
| 多头注意力 |
Multi-Head Attention |
Transformer 中同时从多个角度分析输入信息的机制 |
N–P
| 自然语言处理 |
NLP |
让计算机理解和生成人类语言的技术领域 |
| 神经网络 |
Neural Network |
模仿人脑神经元连接方式的计算模型 |
| 位置编码 |
Positional Encoding |
Transformer 中用于标记词语位置信息的技术 |
| 提示词 |
Prompt |
用户输入给 AI 的指令或问题,决定 AI 的输出方向 |
R–S
| RAG |
Retrieval-Augmented Generation |
检索增强生成,让模型先检索相关文档再生成回答,减少幻觉 |
| RLHF |
Reinforcement Learning from Human Feedback |
基于人类反馈的强化学习,用于对齐模型输出与人类偏好 |
| 自注意力机制 |
Self-Attention |
Transformer 的核心机制,让模型理解词语之间的关联关系 |
| 符号主义 |
Symbolism |
早期 AI 流派,通过逻辑规则和符号推理实现智能 |
| 专家系统 |
Expert System |
将人类专家知识编码为规则的早期 AI 系统 |
T–Z
| Token |
Token |
大模型处理文本的基本单位,一个汉字通常对应 1—2 个 Token |
| Transformer |
Transformer |
2017 年提出的深度学习架构,是当前大模型的基础 |
| 语音合成 |
Text-to-Speech (TTS) |
将文字转换为语音的技术 |
| 工作流 |
Workflow |
将复杂任务拆解为多个有序步骤的流程,Agent 的核心组件 |