Skip to content

本纪第二 · 黄金时代(1956—1973)

1957 年,西蒙和纽厄尔预言:"十年之内,计算机将成为国际象棋世界冠军。"次年,麦卡锡发明了一种将改变编程历史的语言。几年后,一个冒充心理治疗师的程序让秘书们以为自己在和真人交谈。与此同时,一位心理学家造出了一台能自己学习的机器,却被自己的同行判了死刑。这是人工智能最意气风发的十七年——也是它种下苦果最多的十七年。

一、核心之争:通用智能有多远?

达特茅斯会议之后,AI 的先驱们面对的不再是"机器能否思考"这个哲学问题,而是一个工程问题:"通用智能还要多久?"

他们的回答充满了近乎鲁莽的乐观。西蒙纽厄尔在 1957 年共同预言:"在十年之内,数字计算机将成为国际象棋世界冠军","将发现并证明一个重要的新数学定理"。明斯基在 1967 年更进一步:"在一代人的时间内……创造'人工智能'的问题将在实质上得到解决。"

这些预言并非空穴来风。在 1956 年之后的短短几年里,AI 程序已经能够证明数学定理、下棋、翻译(虽然很粗糙)、解代数题。每一个新成果都被当作通往通用智能的路标。政府的钱滚滚而来——美国国防部高级研究计划局(DARPA)几乎不附带任何条件地向麻省理工学院(MIT)、卡内基梅隆大学(CMU)和斯坦福大学的 AI 实验室投入了数百万美元。

但乐观的背后潜藏着一个致命的认知偏差:研究者们把"在受限环境中解决特定问题"的能力,等同于"接近通用智能"。他们即将发现,从积木世界到真实世界之间的距离,远比他们想象的大得多。

二、符号主义的黄金年代

麦卡锡与 LISP

达特茅斯会议之后,麦卡锡没有满足于命名者的荣耀,而是着手解决一个实际问题:AI 研究者需要什么样的编程语言?

当时的主流语言——FORTRAN(公式翻译语言)和汇编——是为数值计算和机器控制设计的,处理符号和逻辑推理极为笨拙。1958 年,麦卡锡在 MIT 设计并实现了 LISP(List Processing Language)。这种语言以列表为基本数据结构,用递归代替循环,把程序和数据视为同一种东西——一段 LISP 程序本身就是一个可以被修改和执行的数据结构。

LISP 的设计远远超前于它的时代。它引入的垃圾回收(Garbage Collection)、条件表达式和高阶函数等概念,在之后的几十年里陆续被主流语言吸收——Python 的列表推导、JavaScript 的函数式编程、甚至 Java 的 lambda 表达式,都可以追溯到 LISP 的基因。在 AI 研究内部,LISP 更是统治了将近三十年,成为符号 AI 的通用语言。

麦卡锡还在 1958 年提出了"建议接受者"(Advice Taker)的构想——一个能接收新知识并据此推理的通用程序。这个构想从未完整实现,但它描绘的方向——让机器拥有常识并进行逻辑推理——定义了此后二十年符号 AI 的核心议程。

纽厄尔与西蒙:通用问题求解器

在逻辑理论家大获成功之后,纽厄尔和西蒙更加坚信一个信念:人类的问题求解过程可以被分解为一组通用的搜索和推理策略。1957 年,他们将这个信念具象化为一个程序——通用问题求解器(General Problem Solver,GPS)。

GPS 的核心思想是"手段-目的分析"(Means-Ends Analysis):比较当前状态与目标状态的差异,然后找到一个能缩小差异的操作,递归地将问题分解为子问题。这个策略听起来简单到了平庸的地步,但它确实能解决河内塔、逻辑证明、简单的代数变换等一系列看似不相关的问题。

纽厄尔和西蒙从中得出了一个大胆的理论主张:智能的本质就是"在符号结构上进行搜索"。他们将这个主张命名为"物理符号系统假说"(Physical Symbol System Hypothesis)——任何具备创建、修改和操作符号结构能力的系统,都具备通用智能的充分和必要条件。

这个假说成为了黄金时代的信条。但它也埋下了日后最大的争议:如果智能真的可以还原为符号操作,那么常识、直觉、知觉这些看似不需要"推理"的能力,该如何解释?

明斯基与微世界

明斯基选择了另一条路径。与其试图一步到位地解决通用智能,不如先在一个极度简化的"微世界"(Microworld)中让机器展现智能行为,然后再逐步扩展到更复杂的领域。

这个策略的典型代表是 MIT 的"积木世界"(Blocks World)。在这个虚拟世界里,只有若干彩色积木块和一只机械臂,机器需要理解"把红色的积木放在蓝色的上面"之类的自然语言指令,并规划执行动作。1971 年,明斯基的学生维诺格拉德开发的 SHRDLU 系统在积木世界中展示了令人印象深刻的自然语言理解能力——它能回答关于积木位置的问题,执行复杂的搬移指令,甚至理解代词指代。

微世界策略在短期内取得了耀眼的成果。但它也制造了一个危险的幻觉:在积木世界中运行良好的程序,让人以为自然语言理解问题已经"基本解决"。事实是,积木世界的成功恰恰依赖于它的封闭性——词汇有限、物理规则简单、不存在歧义。一旦离开这个精心搭建的温室,同样的技术便寸步难行。

三、对话的幻觉

1966 年,MIT 教授维森鲍姆发布了一个名为 ELIZA 的程序。ELIZA 模拟罗杰斯式心理治疗师(Rogerian therapist),使用简单的模式匹配和模板替换来生成回复。当用户说"我最近很难过",ELIZA 会回答"你能告诉我为什么难过吗?"——本质上只是把用户的话重新组织为一个问题。

ELIZA 的代码极其简单——没有任何对语言的真正"理解",只有几十条模式匹配规则。但接下来发生的事情让维森鲍姆始料未及,也深深地震动了他。

他的秘书在使用 ELIZA 时,竟然要求维森鲍姆离开房间,好让她"私下"与程序交谈。一些精神科医生认真地提议将 ELIZA 用于临床治疗。人们对一个简单的文字匹配程序投射了真实的情感和信任——尽管维森鲍姆从一开始就公开说明这只是一个模式匹配的把戏。

这个现象后来被称为"ELIZA 效应"(ELIZA Effect)——人类倾向于在机器的输出中读出远超其实际能力的"理解"和"智能"。

维森鲍姆被这个发现深深困扰。他从 AI 的热情倡导者转变为最尖锐的批评者之一。1976 年,他出版了《计算机的力量与人类的理性》(Computer Power and Human Reason),警告说某些人类活动——如心理治疗中的共情——不应该被委托给机器,即使技术上可行。在 AI 圈内,这本书被视为叛变;但半个世纪后,当 ChatGPT 被数百万人当作情感陪伴和心理咨询的对象时,维森鲍姆的担忧显得比任何时候都更为尖锐。

四、感知机之争

罗森布拉特的机器

在符号主义者忙于证明定理和搭建微世界的同时,另一条路线也在悄悄推进。

1957 年,美国心理学家罗森布拉特在康奈尔大学(Cornell University)提出了"感知机"(Perceptron)模型,并于次年在一台名为 Mark I 的定制硬件上实现了它。感知机本质上是麦卡洛克-皮茨神经元模型的可学习版本——它能接收输入(例如一张简单图像的像素值),通过可调节的连接权重计算加权和,然后输出分类结果。关键在于,这些权重不是人手工设定的,而是通过一个学习算法从训练样本中自动调整的。

1958 年,美国海军研究办公室(ONR)为感知机举办了一场新闻发布会。《纽约时报》的报道热情洋溢,称感知机是"电子计算机的雏形,(海军)期望它能行走、说话、看见、写字、自我复制并意识到自身的存在"。罗森布拉特本人虽然也持乐观态度,但他的学术论文远比新闻标题审慎。然而,媒体制造的泡沫已经难以收回。

明斯基与帕珀特的"判决书"

感知机的高调亮相引发了符号主义阵营的警惕。明斯基对神经网络并不陌生——他自己在 1951 年就建造了 SNARC——但到了 1960 年代,他已经完全转向符号主义路线,并且越来越不耐烦于感知机阵营的过度宣传。

1969 年,明斯基与南非裔美国数学家帕珀特合著出版了《感知机》(Perceptrons)一书。这本书用严格的数学证明指出了单层感知机的根本局限:它无法计算像"异或"(XOR)这样简单的逻辑函数——给定两个二值输入,当且仅当恰好一个为真时输出为真。

从纯粹的数学角度看,这个结论是正确的。但问题在于它的影响力远远超出了数学本身。明斯基和帕珀特在书中暗示——虽然没有严格证明——多层网络可能也无法克服这些局限。这个暗示被 AI 社区广泛解读为"神经网络是死路一条"的终审判决。

影响是毁灭性的。研究资金从神经网络领域大量撤出,转投符号 AI。年轻研究者被劝告远离这个"已被证伪"的方向。罗森布拉特本人在 1971 年 7 月 11 日——他四十三岁生日当天——因划船事故溺亡于切萨皮克湾,未能亲眼看到自己的工作被平反。

历史最终证明,明斯基和帕珀特对多层网络的悲观判断是错误的。1986 年,辛顿等人证明了反向传播算法可以有效训练多层神经网络,异或问题和更复杂的问题迎刃而解。但在此之前的将近二十年里,神经网络研究几乎被打入了冷宫。

这场争议至今仍是 AI 史上最具争议的事件之一。有人认为明斯基是在捍卫科学标准,有人认为他是出于学术竞争扼杀了一整条研究路线。真相可能介于两者之间——但无论动机如何,其后果是清晰的:连接主义的火种在黄金时代末期被几乎掐灭,直到二十年后才重新点燃。

五、机器人走出实验室

Shakey:第一个自主机器人

在符号推理和神经网络的争论之外,一些研究者试图回答一个更直接的问题:机器能否在物理世界中自主行动?

1966 年,斯坦福研究院(SRI International)启动了 Shakey 项目,由尼尔森领导。Shakey 是一个装有摄像头、碰撞传感器和无线通信设备的轮式机器人,通过一台房间大小的计算机远程控制。它能感知环境中的物体,制定行动计划,然后执行——推动箱子、穿越房间、避开障碍物。

Shakey 最重要的技术遗产是它催生的两个算法:A* 搜索算法(由尼尔森和同事于 1968 年提出)和 STRIPS 规划系统。A* 至今仍是路径规划的标准算法,从游戏 AI 到卫星导航都在使用。STRIPS 则定义了自动规划(Automated Planning)领域的基本框架,其影响延续至今。

但 Shakey 本身的表现并不令人信服。它在简单环境中完成一个任务需要数小时的计算,任何微小的意外——一束变化的光线、一个位置略有偏移的物体——都可能让它陷入困惑。Shakey 体现了黄金时代的一个核心矛盾:底层算法可能是深刻而持久的,但系统作为一个整体距离实用还差着几个数量级。

六、资金洪流与过度承诺

黄金时代的繁荣在很大程度上依赖于一个宽松的资助环境。1960 年代的美国正处于冷战高峰,DARPA(当时称为高级研究计划局 ARPA)以惊人的慷慨向 AI 研究投入资金——几乎不要求具体的研究计划或可交付成果。MIT 的 AI 实验室、CMU 的计算机科学系、斯坦福的 AI 实验室,都在这种"空白支票"式的资助下蓬勃发展。

但慷慨的资助也催生了慷慨的承诺。1960 年代末,当资助方开始要求看到实际成果时,AI 研究者发现自己陷入了尴尬:程序可以在积木世界中完美运行,但面对真实世界的复杂性束手无策;机器翻译(Machine Translation)项目在投入了大量资金后,输出的翻译质量仍然令人哭笑不得。

1966 年,美国国家科学院下属的自动语言处理咨询委员会(ALPAC)发布了一份报告,对机器翻译的前景做出了严厉的否定评估,直接导致美国政府大幅削减了机器翻译研究的资助。这是第一个信号。

更致命的打击来自大西洋彼岸。1973 年,英国数学家莱特希尔受英国科学研究委员会委托,撰写了一份关于 AI 研究状况的评估报告。莱特希尔报告的措辞毫不客气:AI 的核心问题——组合爆炸(Combinatorial Explosion)——意味着在受限环境中的成功无法扩展到真实世界;AI 研究没有兑现它的承诺,不值得继续大规模投入。

莱特希尔报告在英国引发了连锁反应。除爱丁堡大学和萨塞克斯大学保留了少量研究外,英国几乎全面终止了 AI 资助。美国虽然没有做出如此戏剧性的削减,但 DARPA 也开始收紧了钱袋——要求更具体的项目目标和更明确的应用前景。

黄金时代的帷幕正在落下。

七、暗流与伏笔

回顾这十七年,有几条暗线值得注意。

第一,符号主义的胜利与代价。 黄金时代是符号 AI 的天下——麦卡锡的 LISP、纽厄尔和西蒙的 GPS、明斯基的微世界。这条路线在受限问题上取得了令人印象深刻的成果,但它也形成了一个日益封闭的范式:智能就是符号操作,学习不重要,统计不优雅。明斯基和帕珀特对感知机的"判决"更是将这个范式推向了极端——不仅符号 AI 是对的,神经网络还是错的。这种排他性最终会反噬。

第二,"窄"与"通用"的混淆。 这个时代最大的认知错误是把特定领域的成功等同于通用智能的进展。GPS 能解河内塔不意味着它理解物理世界,SHRDLU 能操作积木不意味着它理解语言,ELIZA 能让人哭不意味着它有共情能力。这种混淆不仅误导了公众和资助方,也误导了研究者自己。

第三,批评者的先见。 维森鲍姆的警告、莱特希尔的报告、ALPAC 的评估,在当时都被 AI 圈内视为外行的无知或敌人的攻击。但历史证明,他们触及了真实的问题——AI 研究者低估了常识的复杂性,高估了符号方法的普适性,对"组合爆炸"问题缺乏有效的回应。

第四,寒冬的种子已经种下。 当承诺无法兑现、资助开始收缩、批评声浪高涨时,一场信心危机就不可避免了。1973 年莱特希尔报告的发表,通常被视为黄金时代的终结和第一次 AI 寒冬的开端。

八、年表

年份事件关键人物
1957通用问题求解器(GPS)诞生纽厄尔西蒙
1957感知机模型提出罗森布拉特
1958LISP 语言诞生;"建议接受者"构想提出麦卡锡
1958感知机硬件 Mark I 实现,海军举办新闻发布会罗森布拉特
1959麦卡锡和明斯基共同创建 MIT AI 实验室麦卡锡明斯基
1963DARPA 向 MIT AI 实验室投入大规模资助
1965DENDRAL 专家系统项目启动费根鲍姆
1966ELIZA 聊天程序发布维森鲍姆
1966ALPAC 报告否定机器翻译前景
1966Shakey 机器人项目启动尼尔森
1968A* 搜索算法提出尼尔森
1969《感知机》出版,论证单层感知机的数学局限明斯基帕珀特
1971维诺格拉德完成 SHRDLU 积木世界系统(博士论文)维诺格拉德
1971罗森布拉特在四十三岁生日当天因划船事故溺亡罗森布拉特
1973莱特希尔报告发表,英国大幅削减 AI 资助莱特希尔

太史公曰

黄金时代的悲剧不在于研究者做错了什么,而在于他们把"做对了一点"误当作"快要做完了"。在积木世界中推动一块积木,和在真实世界中理解一句话,之间隔着的不是量的差距,而是质的鸿沟。符号主义者看到了智能中逻辑和推理的一面,却忽略了知觉、直觉和常识的深渊。更遗憾的是,当另一条路线——神经网络——试图从另一个方向逼近这个深渊时,它被自己的同行以数学的名义判了刑。黄金时代留给后人的最大教训或许是:在科学中,正确的批评和错误的封杀之间,往往只有一线之隔。

亲历者说

征集中

如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献


参考资料

  1. McCarthy, J. (1960). "Recursive Functions of Symbolic Expressions and Their Computation by Machine, Part I." Communications of the ACM, 3(4), 184–195.
  2. Newell, A., & Simon, H. A. (1961). "GPS, A Program that Simulates Human Thought." In Computers and Thought, ed. Feigenbaum & Feldman.
  3. Rosenblatt, F. (1958). "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain." Psychological Review, 65(6), 386–408.
  4. Minsky, M. L., & Papert, S. A. (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press.
  5. Weizenbaum, J. (1966). "ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine." Communications of the ACM, 9(1), 36–45.
  6. Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. W.H. Freeman.
  7. Winograd, T. (1972). "Understanding Natural Language." Cognitive Psychology, 3(1), 1–191.
  8. Nilsson, N. J. (1984). Shakey the Robot. SRI International, Technical Note 323.
  9. Lighthill, J. (1973). "Artificial Intelligence: A General Survey." In Artificial Intelligence: A Paper Symposium. Science Research Council.
  10. ALPAC (1966). Languages and Machines: Computers in Translation and Linguistics. National Academy of Sciences.
  11. Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
  12. Nilsson, N. J. (2009). The Quest for Artificial Intelligence. Cambridge University Press.