本纪第三 · 第一次寒冬(1973—1980)
1973 年,一位从未研究过人工智能的英国数学家写了一份报告,判定 AI 研究"没有兑现任何重要的承诺"。这份报告在英国引发了一场学术屠杀——几乎所有 AI 项目的资助被一夜之间砍掉。大西洋彼岸的美国没有这么戏剧化,但信心的崩塌同样不可逆。曾经被认为"十年内可解"的问题,现在看来连问题本身都还没有被正确理解。寒冬来了。
一、核心之争:AI 到底出了什么问题?
黄金时代的乐观如同一场宿醉,而 1973 年是头痛开始的早晨。
问题不在于 AI 研究者做了什么错事,而在于他们承诺了什么。西蒙预言的"十年内计算机成为国际象棋世界冠军"没有实现——事实上,当时最好的下棋程序连一个普通业余棋手都赢不了。明斯基许诺的"一代人内基本解决 AI 问题"看起来越来越像空头支票。机器翻译在投入了数百万美元后,依然无法产出可用的翻译。
更深层的问题是,研究者们逐渐意识到他们面对的不是一个困难的问题,而是一整类他们甚至还无法清晰定义的问题。这些问题有一个共同的名字:常识。
一个三岁的孩子知道水会从杯子里洒出来、知道推倒的积木不会自己站起来、知道妈妈说"我快气死了"并不意味着她真的要死了。这些看似微不足道的"知识",数量之庞大、关联之复杂、获取之隐蔽,远远超出了任何符号系统可以手工编码的范围。这就是后来被称为"常识问题"(Common Sense Problem)的深渊——黄金时代的 AI 程序之所以只能在积木世界中运行,恰恰因为积木世界是一个不需要常识的世界。
二、莱特希尔报告:判决与余波
一份致命的报告
1973 年,莱特希尔应英国科学研究委员会(Science Research Council)之邀,撰写了一份关于人工智能研究状况的评估报告。莱特希尔是一位杰出的应用数学家和流体力学专家,在 AI 领域并无研究经验。这一点后来成为争论的焦点——支持者认为外部视角更客观,批评者则认为门外汉不应该审判一个他不理解的领域。
报告的结论是毁灭性的。莱特希尔将 AI 研究分为三个类别:A 类(高级自动化,如工业机器人)、B 类(构建机器人,涉及感知和运动控制)和 C 类(计算机的智能应用,如专家系统的雏形)。他认为 A 类和 C 类各有一定价值,但 B 类——也就是 AI 研究的核心地带——基本上是失败的。
莱特希尔的核心论据是"组合爆炸"(Combinatorial Explosion):当问题的规模增大时,搜索空间呈指数级膨胀,而 AI 程序在受限环境中展示的技巧无法扩展到真实世界的复杂度。"在实验室中解决一个简化版本的问题"和"在现实中解决问题本身"之间存在一道无法逾越的鸿沟。
电视辩论
1973 年,英国广播公司(BBC)组织了一场围绕莱特希尔报告的电视辩论。莱特希尔在一边,另一边是英国 AI 研究的代表人物——爱丁堡大学的米奇和理查德·格雷戈里(Richard Gregory),以及远道而来的麦卡锡。
辩论的气氛充满火药味。米奇和麦卡锡激烈反驳莱特希尔的结论,认为他对 AI 的理解过于肤浅,用静态的标准评判一个快速发展的领域。但莱特希尔不为所动——他要求看到的是"成果",而不是"前景"。
辩论没有赢家,但后果是清晰的。英国科学研究委员会接受了莱特希尔报告的基本判断,大幅削减了 AI 研究的资助。除爱丁堡大学(Edinburgh University)在米奇的坚持下、以及萨塞克斯大学(University of Sussex)的认知与计算科学中心(COGS)保留了一定规模的研究外,英国的 AI 研究几乎全面萎缩,多数机构的 AI 项目被关闭或并入其他系科。
美国的收缩
美国的情况没有英国那么极端,但趋势是一致的。
DARPA 在曼斯菲尔德修正案(Mansfield Amendment, 1969)的压力下,开始要求所资助的研究必须与"国防使命"有明确关联。这对基础性的 AI 研究是一记重击——你很难解释一个积木世界的程序如何帮助国防。资助金额虽然没有归零,但 DARPA 的钱开始流向更"务实"的项目——语音识别、图像理解等有明确军事应用的方向。
与此同时,1966 年 ALPAC 报告的余波继续发酵——机器翻译研究在美国几乎完全停止,直到 1980 年代才逐渐恢复。
三、技术瓶颈:硬件、知识与框架
寒冬不仅仅是资金和信心的问题,它也暴露了深层的技术瓶颈。
计算能力的匮乏
1970 年代的计算机以今天的标准衡量简直不可思议地弱小。一台典型的 PDP-10——当时 AI 实验室的主力机器——拥有大约 256K 字(约 1 MB)的内存和每秒几十万次运算的处理能力。这大约相当于今天一块廉价手表的计算能力。
在这样的硬件条件下,任何涉及大规模搜索、模式匹配或学习的程序都会迅速撞上性能的天花板。黄金时代的演示程序之所以只能在微世界中运行,部分原因正是硬件的限制。但研究者们最初并没有把这个因素放在足够重要的位置——他们相信算法的改进可以弥补硬件的不足。寒冬证明了这个信念至少在当时是不成立的。
知识表示的困境
符号 AI 的核心假设是:如果你能把知识用合适的符号结构表示出来,并配以正确的推理规则,机器就能表现出智能。但"合适的表示"本身就是一个极其困难的问题。
以一个简单的例子说明:如何让计算机理解"约翰走进了餐厅,服务员给了他一份菜单"这句话?人类读者会自动推断约翰是顾客、服务员在餐厅工作、菜单是用来点菜的。但这些"显而易见"的推断依赖于大量的背景知识——关于餐厅的运作方式、社会角色、商业交易。明斯基在 1974 年提出了"框架"(Frame)理论,试图用结构化的知识单元来捕捉这种背景知识。尚克则提出了"脚本"(Script)理论,用预设的事件序列来表示常识性的场景知识。
这些理论在小规模演示中运行良好,但它们都面临同一个问题:常识知识的规模是无底洞。你可以编写一个"餐厅脚本",但你还需要"医院脚本""超市脚本""葬礼脚本"——以及无数脚本之间的交叉关联。知识工程的工作量呈指数级增长,而且永远不可能"完成"。
框架问题
麦卡锡与英国计算机科学家帕特里克·海斯(Patrick Hayes)在 1969 年提出了"框架问题"(Frame Problem)——一个看似简单却极其深刻的难题:当一个动作发生时,系统如何知道哪些事情改变了,哪些没有改变?
当你把一个杯子从桌子移到架子上时,杯子的位置改变了,但杯子的颜色没变、桌子的位置没变、房间的温度没变、你的名字没变。人类不需要逐一确认这些"没变的事情"——它们是默认的。但对于一个逻辑推理系统来说,默认是不存在的——要么你显式声明某些事实不变(工作量巨大),要么你假设一切不变除非被改变(但"除非"的条件本身就是另一个无底洞)。
框架问题至今没有被完全解决,但它在 1970 年代的提出,清晰地暴露了符号 AI 方法论的一个根本性困难。
四、坚守者与暗流
寒冬并不意味着所有研究都停止了。一些研究者在资金匮乏和同行冷眼的环境中坚持工作,播下了未来复兴的种子。
专家系统的萌芽
费根鲍姆和他在斯坦福大学的团队在 1965 年就启动了 DENDRAL 项目——一个帮助化学家分析质谱数据的程序。DENDRAL 的关键洞察是:与其追求通用智能,不如将特定领域专家的知识编码进程序。这个思路在黄金时代并不受重视——大家都在追求"通用"——但在寒冬中,它的实用价值开始显现。1974 年,费根鲍姆的团队又启动了 MYCIN 项目——一个诊断血液感染疾病的专家系统。MYCIN 能根据症状和化验结果给出诊断建议和用药方案,在 1979 年的评估中获得了约 65% 的方案可接受率——达到甚至超过了参与测试的大多数人类医生的水平。MYCIN 从未被真正用于临床(部分因为法律和伦理问题),但它证明了一件重要的事:在足够窄的领域,"知识密集型"的 AI 系统可以达到专家级的表现。
专家系统将在下一个时代——1980 年代——迎来它的黄金期。
逻辑编程与 Prolog
在欧洲,法国马赛大学的科尔梅劳尔和英国爱丁堡大学的科瓦尔斯基在 1972 年合作开发了 Prolog(Programming in Logic)语言。Prolog 将逻辑推理直接嵌入编程语言本身——程序员只需声明事实和规则,系统自动进行推理。
Prolog 在欧洲的 AI 社区中获得了广泛采用,并在 1980 年代成为日本第五代计算机计划的核心语言。它代表了一种不同于美国 LISP 传统的 AI 编程范式,也证明了即使在寒冬最深处,创新仍然在发生。
神经网络的低语
虽然明斯基和帕珀特的《感知机》几乎冰封了神经网络研究的主流资助,但少数研究者仍然在边缘地带悄悄工作。美国的史蒂芬·格罗斯伯格(Stephen Grossberg)在 1970 年代持续发展神经网络的数学理论,芬兰的特科·科霍宁(Teuvo Kohonen)也在此期间开始了自组织映射(Self-Organizing Map)的早期研究(其奠基性论文于 1982 年发表)。这些工作在当时几乎无人关注,但它们保住了连接主义的火种。
五、暗流与伏笔
回顾这七年,有几条暗线值得注意。
第一,"AI 寒冬"的概念本身。 这是 AI 历史上第一次经历繁荣-萧条的周期。它建立了一个将在此后反复上演的模式:过度承诺 → 未能兑现 → 信心崩塌 → 资金撤出 → 边缘化。这个模式的危害不仅在于资金损失,更在于它对年轻研究者的吓阻效应——一代人被劝告远离 AI,导致人才断层。
第二,"窄"与"通用"的分道扬镳。 寒冬教会了一部分研究者一个务实的教训:与其追求遥不可及的通用智能,不如解决真实的、有限的、有价值的问题。费根鲍姆的专家系统正是这条路线的产物。这个转向在下一个时代将大放异彩——但它也带来了新的风险:过于狭窄的系统同样会引发另一轮失望。
第三,硬件在等待。 1970 年代的计算能力不足以支撑大多数 AI 构想。但摩尔定律正在静静运转——每隔约两年,芯片上的晶体管数量就会翻倍。到了 1980 年代初,计算机的性能已经比寒冬开始时提升了一个数量级。硬件的进步将为下一次复兴提供物质基础。
第四,寒冬不是死亡。 尽管资助大幅削减、公众热情消退,AI 研究从未完全停止。专家系统在实验室中悄悄成熟,Prolog 在欧洲生根发芽,知识表示理论在困境中深化。当 1981 年日本宣布启动第五代计算机计划时,一场新的繁荣已经蓄势待发。
六、年表
| 年份 | 事件 | 关键人物 |
|---|---|---|
| 1969 | 曼斯菲尔德修正案要求 DARPA 资助须与国防相关 | — |
| 1972 | Prolog 语言诞生 | 科尔梅劳尔、科瓦尔斯基 |
| 1973 | 莱特希尔报告发表,英国大幅削减 AI 资助 | 莱特希尔 |
| 1973 | BBC 组织莱特希尔报告电视辩论 | 莱特希尔、米奇、麦卡锡 |
| 1974 | MYCIN 专家系统项目启动 | 费根鲍姆 |
| 1974 | 明斯基提出"框架"理论 | 明斯基 |
| 1975 | DARPA 资助进一步收缩,转向语音识别等应用项目 | — |
| 1976 | 维森鲍姆出版《计算机的力量与人类的理性》 | 维森鲍姆 |
| 1977 | 费根鲍姆提出"知识工程"概念 | 费根鲍姆 |
| 1979 | 斯坦福大学启动知识系统实验室(KSL) | 费根鲍姆 |
太史公曰
寒冬最残酷的不是资金的枯竭,而是对一代人想象力的冻结。当一个领域被公开宣判"失败"时,最先离开的不是那些平庸的研究者,而是那些本该最有创造力的年轻人——他们被导师和同行劝告"去做更有前途的事"。这种人才的流失是无法用任何经费弥补的。然而寒冬也有寒冬的馈赠:它淘汰了泡沫,留下了真正热爱这个领域的人;它迫使研究者从云端回到地面,开始思考"什么是 AI 真正能做的"而非"AI 应该能做什么"。费根鲍姆的专家系统、科尔梅劳尔的 Prolog、格罗斯伯格在神经网络边缘的坚守——这些寒冬中的火种,将在下一个春天燃烧得更旺。历史一再证明:冬天从不是终结,只是分界线。
亲历者说
征集中
如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献。
参考资料
- Lighthill, J. (1973). "Artificial Intelligence: A General Survey." In Artificial Intelligence: A Paper Symposium. Science Research Council.
- Minsky, M. (1974). "A Framework for Representing Knowledge." MIT AI Memo 306.
- Schank, R. C., & Abelson, R. P. (1977). Scripts, Plans, Goals, and Understanding. Lawrence Erlbaum Associates.
- McCarthy, J., & Hayes, P. J. (1969). "Some Philosophical Problems from the Standpoint of Artificial Intelligence." Machine Intelligence, 4, 463–502.
- Shortliffe, E. H. (1976). Computer-Based Medical Consultations: MYCIN. Elsevier.
- Colmerauer, A., & Roussel, P. (1993). "The Birth of Prolog." In History of Programming Languages II, ACM Press.
- Kohonen, T. (1982). "Self-Organized Formation of Topologically Correct Feature Maps." Biological Cybernetics, 43, 59–69.
- Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. W.H. Freeman.
- Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
- Nilsson, N. J. (2009). The Quest for Artificial Intelligence. Cambridge University Press.
- Fleck, J. (1982). "Development and Establishment in Artificial Intelligence." In Scientific Establishments and Hierarchies, ed. Elias, Martins & Whitley. Reidel.