Skip to content

本纪第五 · 第二次寒冬(1987—1993)

1987 年,苹果公司推出了一台售价不到一万美元的 Macintosh II,运行通用软件的速度已经逼近十万美元的 LISP 专用机。同一年,Symbolics 的订单开始断崖式下跌。两年后,DARPA 的战略计算倡议悄然缩减。再过三年,日本的第五代计算机计划在一片沉默中收场。AI 第二次进入了寒冬——这一次,冷的不只是学术界,还有整个产业。

一、核心之争:专家系统到底出了什么问题?

第一次寒冬是期望落空的产物——学术界承诺了太多,交付了太少。第二次寒冬则不同,它是一次商业泡沫的破裂。

专家系统曾是 AI 最耀眼的商业明星。R1/XCON 每年为 DEC 节省两千五百万美元,数百家企业争相部署。但到了 1987 年前后,问题开始集中爆发:

  • 维护成本失控。 一个包含数千条规则的专家系统,每添加一条新规则都可能与已有规则产生冲突。规则库越大,维护越困难,最终达到一个临界点——维护成本超过了系统带来的收益。
  • 知识获取的瓶颈依旧。 知识工程师从专家口中提取知识的过程仍然缓慢、昂贵且不可靠。专家的隐性知识无法被完全编码。
  • 脆弱性。 专家系统只能处理规则覆盖到的情况。遇到规则之外的输入,系统要么沉默,要么给出荒谬的答案——而且它不知道自己不知道。没有"优雅降级"(Graceful Degradation),只有"悬崖式失败"。
  • 无法学习。 专家系统不会从错误中改进。每一次修正都需要人工干预——找到错误的规则,理解错误的原因,手动修改。系统永远不会自己变好。

这些问题不是个别系统的缺陷,而是整个范式的结构性问题。当企业的 CTO 们意识到这一点时,他们对 AI 的热情迅速降温。

二、LISP 机器的崩溃

摩尔定律的复仇

LISP 机器市场的崩溃是第二次寒冬中最具戏剧性的事件。

1980 年代初,Symbolics、LMI 和得州仪器的 LISP 机器售价在五万到十五万美元之间,为 AI 研究者和企业提供了运行 LISP 程序的最佳平台。但它们的商业模式建立在一个隐含的假设之上:通用计算机永远不会高效地运行 LISP。

摩尔定律摧毁了这个假设。到 1987 年,Sun 微系统(Sun Microsystems)和其他厂商的通用 UNIX 工作站性能飞速提升,已经足以流畅运行 LISP 程序,而价格只有 LISP 专用机的几分之一。与此同时,C 语言和后来的 C++ 逐渐成为软件开发的主流——企业不再愿意为一种只在 AI 社区流行的语言购买专用硬件。

Symbolics 是倒下的最大一块多米诺骨牌。这家曾经注册了互联网第一个 .com 域名的公司,在 1980 年代末订单急剧萎缩,1990 年代初陷入破产困境。LMI 更早倒下。得州仪器退出了 LISP 机器市场。整个 LISP 机器产业在几年之内几乎从地图上消失。

连锁反应

LISP 机器市场的崩溃产生了远超自身规模的影响。它是一个信号——一个"AI 不行了"的信号。当投资者看到一个曾经热门的 AI 硬件市场在几年内蒸发时,他们的结论不是"LISP 机器过时了",而是"AI 过时了"。这种情绪从 LISP 机器蔓延到整个 AI 产业,包括专家系统、AI 咨询公司和 AI 研究实验室。

据估计,1987 年到 1993 年间,全球 AI 产业的规模大幅萎缩。许多 AI 创业公司——Teknowledge、Intellicorp、Applied Intelligence Systems——要么倒闭,要么被迫转型为普通的软件公司,从产品名称中悄悄删掉"AI"这个词。

三、大计划的落幕

第五代的终曲

日本的第五代计算机计划在 1992—1993 年间正式结束(最终评估报告于 1993 年 3 月发布)。

十年间,该项目投入了约四亿五千万美元(约 540 亿日元),动员了数百名研究者,开发了大量并行推理机硬件和 Prolog 衍生语言。但最终的成果远未达到最初的宏伟目标——既没有实现自然语言理解,也没有展现出接近人类的推理能力。

第五代计划的失败有多重原因。最根本的一条是:它押注了错误的技术路线。计划的核心假设是"逻辑推理 + 大规模并行"可以通向智能,而这个假设在 1980 年代末已经受到了严重质疑。知识表示的困难、常识推理的无底洞、逻辑方法在处理不确定性和模糊性时的笨拙——这些在第一次寒冬中就已暴露的问题,并没有因为硬件的改进而消失。

但第五代计划并非一无所获。它推动了并行计算的研究,培养了一代日本计算机科学家,Prolog 语言也在逻辑编程社区中留下了持久的影响。更重要的是,它的宏大叙事刺激了美国和欧洲的竞争性投资,间接为全球 AI 研究注入了大量资金。

战略计算倡议的退潮

美国 DARPA 的战略计算倡议(SCI)也在 1980 年代末开始收缩。SCI 原计划投入约十亿美元,用于开发自主驾驶车辆、智能飞行助手和战场管理系统。虽然它资助了一些有价值的基础研究——包括卡内基梅隆大学的 Navlab 自动驾驶项目——但核心目标同样未能实现。

1987 年,DARPA 信息处理技术办公室(IPTO)新任负责人杰克·施瓦茨(Jack Schwarz)大幅削减了 AI 研究资助,将资金转向更"务实"的领域。这一次,连 DARPA——AI 最忠实的金主——也失去了耐心。

阿尔维计划的结束

英国的阿尔维计划(Alvey Programme)在 1990 年到期后未获续期。该计划投入了约三亿五千万英镑,在知识工程和人机交互方面取得了一些成果,但未能培育出有竞争力的英国 AI 产业。英国 AI 研究再次回到了莱特希尔报告之后的低谷。

四、寒冬中的火种

连接主义的复兴

第二次寒冬对符号 AI 是灾难性的,但对另一条路线——连接主义/神经网络——却恰恰相反。

1986 年,辛顿鲁梅尔哈特威廉姆斯在《自然》(Nature)杂志上发表了论文《通过反向传播误差学习表征》(Learning representations by back-propagating errors)。这篇论文证明了一件明斯基和帕珀特在 1969 年暗示不可能的事:多层神经网络可以通过反向传播算法(Backpropagation)有效训练,从而克服单层感知机的局限。

反向传播的核心思想是:将输出层的误差沿网络反向传播,逐层调整每个连接的权重,使得整个网络的输出逐步逼近期望值。这个想法并非全新——韦伯斯早在 1974 年的博士论文中就提出了类似的方法——但辛顿等人的 1986 年论文通过清晰的实验证明了它在实际问题上的有效性,引发了广泛关注。

然而,1980 年代末的计算机硬件仍然不足以支撑大规模神经网络的训练。反向传播在小型网络上效果不错,但一旦网络层数加深,训练就会变得极其缓慢,并且容易陷入"梯度消失"(Vanishing Gradient)问题——底层的权重几乎无法被更新。这个问题要等到二十多年后才被辛顿的深度信念网络和 GPU 计算的成熟所解决。

统计方法的悄然崛起

与此同时,一种完全不同的范式正在 AI 的边缘地带悄悄兴起:基于统计和概率的方法。

语音识别领域率先转向。从 1970 年代后期到 1980 年代,IBM 的贾里尼克和他的团队用隐马尔可夫模型(Hidden Markov Model,HMM)在语音识别上取得了持续性的突破——不是通过理解语言的"含义",而是通过统计大量语音数据中的模式。贾里尼克有一句著名的玩笑话:"每当我开除一个语言学家,语音识别系统的性能就提高了。"这句话虽然刺耳,但它精确地概括了一个范式转移:从"让机器理解规则"到"让机器从数据中学习规律"。

自然语言处理领域也在经历类似的转变。基于统计的词性标注、句法分析和信息检索方法开始取代手工编写的语法规则。这些方法不如符号方法"优雅",但它们更鲁棒、更可扩展,也更容易从不断增长的数据中受益。

这场从"知识驱动"到"数据驱动"的范式转移,在第二次寒冬中只是一条暗流。但它将在下一个时代——静默前行期——成为主流,并最终在深度学习革命中改变一切。

万维网的诞生

1989 年,伯纳斯-李在欧洲核子研究中心(CERN)发明了万维网(World Wide Web)。1991 年,第一个网页上线。这个事件在当时看起来与 AI 毫无关系——但它即将释放人类历史上最大规模的数据洪流。二十年后,正是这些数据喂饱了深度学习的算法。

五、暗流与伏笔

第一,"AI"成了脏词。 第二次寒冬最持久的伤害不是资金的损失,而是"AI"这个词本身的污名化。在整个 1990 年代,许多实际上在做 AI 的研究者刻意避免使用这个标签。语音识别叫"统计信号处理",计算机视觉叫"模式识别",规划系统叫"运筹学"——实质相同,但换了一个不会吓跑资助方和合作者的名字。这种更名现象本身就是寒冬深度的标志。

第二,两次寒冬的共同教训。 第一次寒冬源于学术界的过度承诺,第二次源于产业界的过度投资。但根本原因是一样的:对当前技术能力的高估和对问题复杂性的低估。这个教训在 AI 历史中被反复验证——甚至在 2020 年代的大语言模型时代,同样的辩论("AGI 还有多远?")仍在继续。

第三,寒冬筛选了方向。 符号 AI 和专家系统在这次寒冬中遭受了致命打击,此后再未恢复到鼎盛时期的地位。而统计方法、神经网络和数据驱动的范式则在寒冬中默默积蓄力量。某种意义上,第二次寒冬完成了一次自然选择——淘汰了当时占主导地位的范式,为新的范式腾出了空间。

第四,基础设施在就位。 摩尔定律继续运转,互联网在扩张,数字数据在爆炸式增长。到 1990 年代初,支撑下一次 AI 复兴的三大要素——算力、数据和算法——都已经在各自的轨道上加速。只是还没有人把它们组合在一起。

六、年表

年份事件关键人物
1970s 后期—1980s贾里尼克团队用 HMM 在语音识别上取得持续突破贾里尼克
1986反向传播算法论文在《自然》发表辛顿鲁梅尔哈特威廉姆斯
1987通用工作站性能超过 LISP 专用机,LISP 机器订单开始下滑
1987AI 产业收入开始萎缩,多家 AI 创业公司倒闭或转型
1987DARPA IPTO 新负责人大幅削减 AI 资助施瓦茨(Jack Schwarz)
1989伯纳斯-李发明万维网伯纳斯-李
1990英国阿尔维计划到期未续
1990s 初Symbolics 陷入破产困境,LISP 机器时代终结
1992日本第五代计算机计划结束,未达到核心目标
1993"AI"一词在产业界和学术界被广泛回避

太史公曰

第二次寒冬比第一次更痛,因为这一次赔进去的不只是学术声誉,还有真金白银。投资者发现他们买的不是"会思考的机器",而是一堆昂贵的、难以维护的、在规则之外寸步难行的 IF-THEN 语句。LISP 机器的废墟上写满了一个朴素的真理:专用硬件永远跑不赢通用计算的指数增长。但寒冬最深处也蕴藏着最有价值的线索。辛顿在 1986 年证明的反向传播、贾里尼克在语音识别中推行的统计方法、伯纳斯-李在 CERN 实验室敲出的第一个网页——这三件看似不相关的事,正在为二十年后的革命准备弹药。历史有时候需要两次寒冬才能教会一个领域:不是推理的方向错了,也不是学习的方向错了,而是只靠其中一个方向走不到终点。

亲历者说

征集中

如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献


参考资料

  1. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). "Learning representations by back-propagating errors." Nature, 323, 533–536.
  2. Werbos, P. J. (1974). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. PhD thesis, Harvard University.
  3. Jelinek, F. (1976). "Continuous Speech Recognition by Statistical Methods." Proceedings of the IEEE, 64(4), 532–556.
  4. Moto-oka, T. (1982). Fifth Generation Computer Systems. North-Holland.
  5. Shapiro, E. (1983). "The Fifth Generation Project — A Trip Report." Communications of the ACM, 26(9), 637–641.
  6. Berners-Lee, T. (1989). "Information Management: A Proposal." CERN Internal Document.
  7. Hendler, J. (2008). "Avoiding Another AI Winter." IEEE Intelligent Systems, 23(2), 2–4.
  8. Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
  9. Nilsson, N. J. (2009). The Quest for Artificial Intelligence. Cambridge University Press.
  10. Haugeland, J. (1985). Artificial Intelligence: The Very Idea. MIT Press.