1.1 AI 的三次浪潮

人工智能并非一夜之间横空出世,而是经历了近七十年的曲折发展。了解这段历史,你就能理解今天的 AI 为何如此强大,也能对它的局限保持清醒。本节将带你穿越三个时代,看看 AI 是如何从实验室走进你的手机的。

一、什么是人工智能

在展开历史之前,我们先回答一个最基本的问题:什么是人工智能?

简单来说,人工智能(Artificial Intelligence, AI)是指由人类设计的、能够模拟人类智能行为的计算机系统。这里的"智能行为"包括四种核心能力:

  • 感知:看懂图片、听懂语音;
  • 推理:分析信息、做出判断;
  • 学习:从经验中不断改进;
  • 决策:在多个选项中选择最优方案。

需要特别强调的是:AI 是一种工具,不是一种生命。它没有意识、没有情感、没有自主意愿。当我们说 AI"思考"或"理解"时,使用的是比喻性说法——它实际上是在执行数学运算。你可以把它想象成一个极其高效的计算器:它能处理的问题远比普通计算器复杂,但本质上仍然是在"算",而不是在"想"。

二、第一次浪潮:符号主义与逻辑推理(1956—1970s)

1. 前史:图灵与"模仿游戏"

在 AI 正式诞生之前,英国数学家艾伦·图灵(Alan Turing)已经为它奠定了思想基础。1950 年,图灵发表了著名论文《计算机与智能》,提出了"模仿游戏"——后来被称为"图灵测试"。有趣的是,这个测试的原始版本并非人与机器对话,而是需要三个参与者:一个男人(A)、一个女人(B)和一个提问者(C)。C 需要通过打字机提问来判断哪个是男人、哪个是女人。图灵进而提出:如果用机器替换 A 的角色,提问者还能分辨吗?这才是"图灵测试"的原型。

更早在 1948 年,图灵就为英国国家物理实验室撰写了一份名为《智能机器》的内部报告,首次提出了神经网络和进化的概念。这篇报告直到 1969 年才发表,但被现代机器人专家罗德尼·布鲁克斯认为是 AI 两条路线分歧的原点。

延伸阅读:1951 年,马文·明斯基与邓恩·埃德蒙建造了世界上第一台神经网络计算机 SNARC(随机神经模拟强化计算器),这比 AI 正式命名还早了五年。

2. 达特茅斯会议:AI 的"出生证明"

1955 年,约翰·麦卡锡(John McCarthy)联合马文·明斯基、纳撒尼尔·罗切斯特(IBM)和克劳德·香农(贝尔实验室),向洛克菲勒基金会提交了一份研究建议书。麦卡锡的原始预算是 13,500 美元,但基金会最终只批了 7,500 美元。

1956 年夏天,10 位核心科学家齐聚达特茅斯学院,召开了这场载入史册的研讨会。除了四位发起人,还包括艾伦·纽厄尔、赫伯特·西蒙、亚瑟·塞缪尔等人。会上,麦卡锡提出了"人工智能"(Artificial Intelligence)这一术语——尽管他晚年承认这个词可能是从别人那里听来的,纽厄尔和西蒙当时更喜欢用"复杂信息处理"这个说法。

趣闻:这次会议上给所有人留下最深印象的,是纽厄尔和西蒙带来的程序"逻辑理论家"(Logic Theorist)。它成功证明了《数学原理》中 38 条定理。但当他们把论文投给《符号逻辑杂志》时,却被退稿,理由是"把一本过时的逻辑书里的定理用机器重证一遍没啥意思"。

📷 【截图位置】:达特茅斯会议参与者合影或 AI 发展时间线信息图(建议尺寸:宽度占满页面)

2. 核心理念:用符号模拟思维

这一时期的主流思想是符号主义(Symbolism)。研究者认为,人类的思维本质上是对符号的逻辑运算——就像数学家用公式推导定理一样。因此,只要把知识编码为符号,再编写推理规则,计算机就能"思考"。

基于这一理念,科学家们开发出了一系列令人兴奋的成果:

  • 逻辑理论家(Logic Theorist, 1956):能够自动证明数学定理,被称为"第一个 AI 程序";
  • 通用问题解决器(GPS, 1957):试图用统一的方法解决各类问题;
  • ELIZA(1966):第一个聊天机器人,能通过简单的模式匹配与人对话。

3. 感知机之争与第一次 AI 寒冬(1974—1980)

在符号主义蓬勃发展的同时,另一条路线也在悄然生长。1957 年,弗兰克·罗森布拉特(Frank Rosenblatt)提出了"感知机"(Perceptron)模型——一种模仿神经元的简单网络,能够学习识别简单的图案。这一成果引发了巨大的热潮。

然而,1969 年,明斯基和佩珀特出版了《感知机》一书,从数学上证明了单层感知机无法解决"异或"(XOR)问题——即无法处理非线性分类。这本书直接导致神经网络研究进入了长达 20 年的"大饥荒"时期。

趣闻:明斯基和罗森布拉特其实是布朗克斯科学高中的同学(明斯基高一级),两人彼此认识且互相竞争。罗森布拉特后来在 1971 年 43 岁生日当天划船溺水身亡。

与此同时,符号主义也遭遇了致命缺陷:机器缺乏常识。人类看到"他把冰淇淋放在口袋里,到家后发现口袋湿了"这句话,立刻能理解冰淇淋融化了。但符号主义 AI 需要有人事先把"冰淇淋在体温下会融化""融化的液体会弄湿布料"等无数条常识逐一编写为规则,否则无法做出推断。

现实世界的常识几乎是无穷的,不可能全部手工编码。加之当时计算机算力严重不足,各国政府纷纷削减 AI 研究经费,人工智能进入了第一个"寒冬"。

知识拓展:莫拉维克悖论 20 世纪 80 年代,研究者发现了一个反直觉的现象:人类觉得"困难"的事情(如数学推理、下棋),对计算机来说反而容易;而人类觉得"简单"的事情(如走路、识别人脸、理解笑话),对计算机来说却极其困难。这就是"莫拉维克悖论"——困难的问题容易解决,简单的问题很难解决。

术语卡片

符号主义(Symbolism):人工智能早期的主流学派,主张用逻辑符号和推理规则来模拟人类思维。优点是推理过程透明可解释,缺点是难以处理模糊、不确定的现实问题。

三、第二次浪潮:专家系统与知识工程(1980—1987)

1. 从"通用智能"到"专业知识"

经历了第一次寒冬后,研究者意识到:与其追求"什么都懂"的通用智能,不如先让机器成为某个领域的"专家"。这一思路催生了专家系统(Expert Systems)——一种将特定领域专家的知识编码为规则库,再配合推理引擎进行决策的程序。

2. 代表性成果

  • DENDRAL(1968):斯坦福大学的费根鲍姆与遗传学家李德伯格、化学家翟若适合作开发,用于分析质谱仪数据以确定物质的分子结构,是第一款真正意义上的专家系统;
  • XCON 系统:卡内基梅隆大学为 DEC 公司(数字设备公司)开发的计算机配置专家系统,用于自动配置 VAX 系列计算机的零部件,据称每年为 DEC 节省约 4000 万美元,是专家系统商业化的巅峰;
  • MYCIN:用于细菌感染诊断的医疗专家系统,诊断准确率甚至超过了部分人类医生。

爱德华·费根鲍姆(Edward Feigenbaum)因在这一领域的开创性贡献,被誉为"专家系统之父"。

3. 日本的教训与第二次 AI 寒冬(1987—1993)

专家系统虽然在特定领域表现出色,但暴露出三个严重问题:

  • 维护成本高昂:知识库需要人工持续更新,一旦领域知识发生变化,整个系统可能需要重写;
  • 缺乏学习能力:专家系统不能从新数据中自动学习,无法"举一反三";
  • 脆弱性:一旦遇到规则库未覆盖的情况,系统就会束手无策。

1982 年,日本通产省投入约 8.5 亿美元启动"第五代计算机"计划,旨在制造能像人一样推理、对话的机器。该计划主要押注于 Prolog 语言和逻辑编程,但最终因未能交付具有实际商业价值的成果而失败,加速了第二次 AI 寒冬的到来。

随着个人电脑性能超越昂贵的专用 AI 硬件,AI 硬件市场崩盘,人工智能再次进入寒冬。

术语卡片

专家系统(Expert System):一种模拟人类专家决策能力的计算机程序,由知识库(存储领域知识)和推理引擎(执行逻辑推理)两部分组成。它是 AI 第二次浪潮的代表性技术。

四、第三次浪潮:深度学习与大模型时代(2006—至今)

1. 连接主义的全面回归

与符号主义不同,连接主义(Connectionism) 主张模仿人脑的神经元结构,通过大量数据训练让神经网络自动学习特征,而非人工编写规则。这一思想早在 1943 年就已萌芽,但受限于算力和数据,长期未能实现突破。

转折点出现在 2006 年。杰弗里·辛顿(Geoffrey Hinton)在《科学》杂志发表论文,提出了"深度信念网络"和逐层预训练方法,解决了深层神经网络难以训练的技术瓶颈,深度学习(Deep Learning) 时代由此开启。

2. 关键里程碑

年份 事件 意义
2012 AlexNet 在 ImageNet 竞赛中将错误率从 26% 降至 15% 深度学习在图像识别领域的决定性胜利
2016 AlphaGo 以 4:1 战胜围棋世界冠军李世石 深度强化学习+蒙特卡洛树搜索的突破,引发全球关注
2017 谷歌发表论文提出 Transformer 架构 奠定了大语言模型的技术基础
2022 OpenAI 发布 ChatGPT 生成式 AI 走向大众,标志着大模型时代的全面到来
2024 Sora 文生视频模型发布 AI 从文本生成扩展到高质量视频生成

趣闻:AlphaGo 的后续版本 AlphaGo Zero 仅通过自我对弈(完全不依赖人类棋谱),就以 100:0 的战绩击败了之前的版本。这说明在某些领域,AI 通过自我学习能超越人类经验的上限。

3. 为什么这次不一样?

第三次浪潮之所以持续至今且不断加速,得益于三个条件的同时成熟:

  • 算力爆发:GPU(图形处理器)的并行计算能力为训练大规模神经网络提供了硬件基础;
  • 数据洪流:互联网产生的海量文本、图像、视频数据为模型训练提供了充足的"养料";
  • 算法突破:Transformer 架构的提出,使模型能够高效处理长序列数据,大幅提升了语言理解和生成能力。

4. 深度学习三巨头

杰弗里·辛顿(Geoffrey Hinton)、杨立昆(Yann LeCun)和约书亚·本希奥(Yoshua Bengio)因在深度学习领域的奠基性贡献,共同获得了 2018 年图灵奖——这是计算机科学的最高荣誉。

术语卡片

深度学习(Deep Learning):机器学习的一个分支,使用多层人工神经网络从数据中自动学习特征。"深度"指的是网络的层数多,而非理解的深度。它是当前 AI 技术的核心驱动力。


本节小结

人工智能的发展并非一帆风顺,而是经历了"热潮—寒冬—再热潮"的螺旋式上升。下表概括了三次浪潮的核心特征:

浪潮 时间 核心思想 代表技术 局限
第一次 1956—1970s 符号主义:用逻辑规则模拟思维 定理证明、ELIZA 缺乏常识,算力不足
第二次 1980—1987 知识工程:用专家知识驱动决策 专家系统 维护成本高,不能学习
第三次 2006—至今 连接主义:用数据训练神经网络 深度学习、大模型 需要海量数据和算力

理解这段历史,我们就能明白一个关键事实:AI 的每一次进步,都不是因为机器变得"更聪明"了,而是因为人类找到了更好的方法来利用数据和算力。 AI 始终是工具,而非智慧本身。

思辨时刻:"中文屋"实验——机器真的在"理解"吗?

1980 年,哲学家约翰·塞尔提出了著名的"中文屋"思想实验:假设一个完全不懂中文的人被关在一间屋子里,屋里有一本详尽的规则手册。外面的人用中文写纸条递进来,屋里的人按照手册查找对应的规则,写出中文回答递出去。从外面看,这间屋子"懂中文";但屋里的人其实一个字都不理解。

塞尔认为,计算机就像这个屋子里的人——它能按规则处理符号并给出正确回答,但并不真正"理解"符号的含义。这个实验至今仍是 AI 哲学中最重要的争论之一:AI 的"智能"是真正的理解,还是精巧的模拟?


思考与讨论

  1. 回顾 AI 的两次"寒冬",你认为第三次浪潮是否也会遭遇类似的低谷?为什么?
  2. 符号主义强调"规则",连接主义强调"数据",你认为未来的 AI 更可能走哪条路线?
  3. 你如何看待"中文屋"实验?当 AI 能流畅地与你对话时,它是在"理解"还是在"模拟"?

results matching ""

    No results matching ""