Skip to content

本纪第一 · 黎明期(1943—1956)

一个离家出走的少年在图书馆里读到了罗素的《数学原理》,写信给罗素,对其中的逻辑提出质疑。几年后,这个少年与一位神经科学家合写了一篇论文,证明大脑可以被翻译成数学。再过十三年,一群数学家、工程师和心理学家聚集在新罕布什尔州汉诺威镇的一所常春藤学院里,给他们共同追寻的事业取了一个名字——人工智能。从 1943 到 1956,这十三年,是一切的开端。

一、核心之争:机器能思考吗?

1943 年到 1956 年之间发生的一切,都可以被归结为一个问题的不同回答方式:"机器能思考吗?"(Can machines think?)

这个问题在今天听起来已经有些陈旧,但在二十世纪中叶,它是一颗投入知识界的炸弹。彼时人类刚刚经历了两次世界大战,战争催生了雷达、密码破译和弹道计算的迫切需求,将数学、逻辑学和工程学推到了前所未有的交汇点。电子计算机从蓝图走向现实——ENIAC、EDVAC、Manchester Mark I 相继点亮了真空管的微光。当一台机器第一次能够执行任意指令序列时,一个幽灵般的念头便不可避免地浮现:如果机器可以计算任何可计算的东西,那么"思维"算不算一种计算?

围绕这个问题,至少形成了四个阵营。他们的出发点不同,方法不同,甚至彼此之间并不总是相互理解——但他们各自点燃的火苗,最终在 1956 年的达特茅斯汇聚成了一把火。

二、逻辑学家:思维是符号的舞蹈

图灵与模仿游戏

英国数学家图灵早在 1936 年就用他著名的图灵机(Turing Machine)模型证明了一件意义深远的事:存在一种通用机器,它可以模拟任何其他机器的计算过程。这个纯粹数学的结论,在当时看起来只是逻辑学的内部事务。但图灵本人对此有更大的野心。

1950 年,图灵在哲学期刊《心灵》(Mind)上发表了一篇注定改变历史的论文——《计算机器与智能》(Computing Machinery and Intelligence)。令人意外的是,这篇讨论机器智能的论文并没有从数学定义开始,而是从一个维多利亚时代的客厅游戏讲起。

图灵描述了一种"模仿游戏"(Imitation Game):一位询问者通过文字交流,试图分辨对面房间里的两个对象——一个是人,一个是机器——哪个是哪个。如果机器能够持续地骗过询问者,我们还有什么理由否认它在"思考"?

这个设计极为精妙。图灵深知,"思考"这个词本身就是一个泥潭——哲学家们可以为它的定义争论几个世纪而毫无结果。所以他绕开了定义,转而提出了一个可操作的实验标准。他不问"机器是否真的在思考",只问"机器的表现是否与思考者无法区分"。

论文的后半部分更加大胆。图灵逐一反驳了九种反对"机器思维"的论证——从"上帝只赋予人类灵魂"的神学论证,到哥德尔不完备定理暗示机器有固有局限的数学论证,再到"机器永远不可能真正理解,只是在模拟"的意识论证。他以一种冷静而犀利的笔触逐一拆解它们,仿佛一位外科医生在解剖陈旧的偏见。

图灵甚至做了一个预言:到二十世纪末,一台拥有十亿比特存储的计算机将能够在五分钟的对话中以 30% 的概率骗过人类。这个预言的具体数字或许有误,但其背后的信念是清晰的——机器智能不是"是否可能"的问题,而是"何时实现"的问题。

邱奇与计算的边界

图灵并非孤军作战。美国数学家邱奇几乎在同一时期独立发展出了 lambda 演算(Lambda Calculus),从另一条路径刻画了"可计算性"的边界。邱奇-图灵论题(Church-Turing Thesis)断言:任何在直觉上可以被"有效计算"的东西,都可以被图灵机(或等价地,被 lambda 演算)计算。这个论题至今无法被严格证明,但也从未被推翻。它悄悄地为人工智能提供了一个哲学地基——如果思维是某种信息处理过程,而所有信息处理过程都可以被图灵机模拟,那么从原则上说,机器就可以思考。

三、神经科学家:大脑是一台计算机

流浪少年与神经元模型

关于皮茨的故事,怎么讲述都不为过。

1923 年出生于底特律一个贫困家庭的皮茨,童年饱受父亲虐待和街头霸凌之苦。十几岁时,他逃离了家庭,在芝加哥大学的图书馆里栖身度日。他没有正式入学,但他在那些书架之间自学了数理逻辑、拉丁语和希腊语。据传十五岁那年,他读到了罗素怀特海合著的《数学原理》(Principia Mathematica),对其中的逻辑提出质疑,写信给罗素。这段通信的具体内容和后续发展存在多个版本——有说法称罗素回信邀请他去剑桥,也有说法称他只是受到鼓励留在芝加哥旁听。但无论细节如何,可以确定的是:这位没有正式学历的少年很早就与当时最前沿的数理逻辑研究建立了联系。

皮茨留在了芝加哥,在那里遇到了改变他命运的人——神经生理学家麦卡洛克。麦卡洛克比皮茨年长二十五岁,是一位兼具诗人气质和科学家严谨的奇人,痴迷于一个问题:大脑如何产生思想?

1943 年,这对忘年之交发表了论文《神经活动中内在观念的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)。皮茨当时年仅二十岁,是一个没有任何学术背景的流浪少年。但这篇论文的深度和原创性令人惊叹。

他们的核心想法是:单个神经元可以被建模为一种简单的逻辑门——接收多个二值输入(兴奋或抑制),当输入的加权总和超过某个阈值时,神经元"激活"并产生输出。这个模型极度简化,真实的神经元远比二值开关复杂。但简化本身就是它的力量所在。麦卡洛克和皮茨证明了一个由这样的简单神经元组成的网络,理论上可以计算任何可计算函数——换言之,一个神经网络与图灵机在计算能力上是等价的。

这篇论文的意义远超神经科学的范畴。它第一次在"大脑"与"逻辑"之间架起了一座数学之桥,暗示了一个大胆的可能性:或许思维的秘密不在神经元的生物化学性质之中,而在它们的连接模式之中。如果这是对的,那么任何具有同样连接模式的系统——无论是用碳基神经元还是硅基电路构建——都应该能够"思考"。

赫布:学习的法则

如果麦卡洛克-皮茨模型描述了大脑的"硬件",那么大脑如何"编程"自己?

1949 年,加拿大心理学家赫布在《行为的组织》(The Organization of Behavior)中给出了一个优美的回答。他提出了一条学习原则:当两个神经元反复同时激活时,它们之间的突触连接会被加强。后世将这条规则浓缩为一句口号——"一起激活的神经元会连接在一起"(Neurons that fire together wire together)。

赫布学习规则(Hebbian Learning Rule)的革命性在于:它提供了一种不需要外部"设计者"的学习机制。网络不是被人手动调校的,而是通过反复的经验自动调整连接权重。这个想法直接启发了后来的感知机(Perceptron)和几乎所有连接主义(Connectionism)学习算法。在某种意义上,七十年后深度学习的反向传播算法,仍然可以被视为赫布思想的精致后代。

四、工程师:让它跑起来

维纳与控制论

如果说逻辑学家追问的是"思维是什么",神经科学家追问的是"大脑如何工作",那么工程师追问的则是一个更直接的问题:"我们能造出来吗?"

美国数学家维纳是最早回答这个问题的人之一。二战期间,维纳研究防空火控系统——自动瞄准的高射炮如何追踪飞速移动的敌机?他意识到,这个工程问题的核心与生物学中的运动控制惊人地相似:两者都依赖"反馈"(Feedback)——系统不断将实际输出与期望目标进行比较,然后修正偏差。

1948 年,维纳将这些洞察写成了《控制论:或关于在动物和机器中控制和通信的科学》(Cybernetics)。这本书的野心是建立一个统一的框架,来理解生物体和机器中一切有目的的行为。维纳的核心论点是:智能行为的本质不在于它发生在碳基还是硅基之上,而在于信息的反馈和调节模式。

控制论迅速成为一场声势浩大的跨学科运动,吸引了生理学家、心理学家、人类学家和数学家的共同参与。梅西会议(Macy Conferences, 1946—1953)成为这场运动的沙龙,来自不同领域的学者在那里激烈地争论反馈、自组织和意识的本质。控制论为即将诞生的人工智能提供了一个关键的思想前提:智能不是生物的专利,它是一种可以在不同基质(Substrate)上实现的信息处理模式。

香农:信息的度量

如果维纳回答了"智能行为如何产生",那么香农回答了一个更基本的问题:"信息是什么?"

1948 年,香农在贝尔实验室发表了《通信的数学理论》(A Mathematical Theory of Communication),一举创立了信息论(Information Theory)。他给出了"比特"(Bit)这个概念的精确定义,证明了信息可以被量化、压缩和无损传输。这篇论文的直接目标是解决电话线路的传输效率问题,但它的影响远远溢出了通信工程的边界。

对于即将诞生的人工智能来说,信息论提供了两个关键的思想工具。其一是(Entropy)的概念——不确定性可以被精确度量,而学习的过程本质上就是在减少不确定性。这个洞察后来成为机器学习中损失函数、交叉熵和决策树等核心方法的数学基础。其二是编码的思想——复杂的现实可以被压缩为紧凑的符号表示,而好的表示能让信息处理事半功倍。七十年后,深度学习中的"表征学习"(Representation Learning)仍然在回答同一个问题:如何为数据找到最好的编码。

香农本人对机器智能的兴趣也毫不逊色。早在 1950 年,他就发表了论文《为下棋而编程的计算机》(Programming a Computer for Playing Chess),系统地阐述了搜索树和评估函数的思想——这套框架后来成为博弈 AI 的标准范式,一路延续到 1997 年深蓝击败卡斯帕罗夫。他还曾制造一只名为"忒修斯"(Theseus)的电子鼠,能在迷宫中通过继电器记忆走过的路径——虽然实现机制与明斯基不久后用神经网络思路构建的 SNARC 不同,但两者共同传递了一个信号:机器不仅能计算,也能"适应"。

冯·诺伊曼:从理论到硅

如果说图灵定义了"什么是可计算的",那么匈牙利裔美国数学家冯·诺伊曼定义了"如何去计算"。冯·诺伊曼在 1945 年起草的 EDVAC 报告确立了存储程序计算机(Stored-program Computer)的体系结构——程序和数据存储在同一块内存中,可以被灵活地读取和修改。这一架构延续至今,几乎所有现代计算机都是"冯·诺伊曼机器"。

但冯·诺伊曼的兴趣远不止于造一台计算器。他晚年深深着迷于大脑与计算机的类比,写下了未完成的遗著《计算机与大脑》(The Computer and the Brain, 1958 年身后出版)。在这本薄薄的书中,他小心翼翼地比较了数字计算机和神经系统的异同:计算机是高速但串行的,大脑是缓慢但高度并行的;计算机使用精确的数字表示,大脑使用粗略的统计编码。冯·诺伊曼清醒地意识到,用当时的计算机来模拟大脑还远远不够——但他相信,这两种信息处理系统之间一定存在深层的联系。

明斯基与 SNARC

1951 年,年仅二十四岁的普林斯顿研究生明斯基和同学埃德蒙兹做了一件看似疯狂的事:他们用大约三百个真空管、电位计和一堆战争剩余的零件,拼凑出了世界上第一台硬件神经网络计算机——SNARC(Stochastic Neural Analog Reinforcement Calculator)。

SNARC 模拟了四十个神经元的网络,能够在一个虚拟迷宫中学习寻路。它的性能以今天的标准衡量简直微不足道,但它的象征意义是巨大的:麦卡洛克-皮茨的数学模型和赫布的学习规则第一次从纸面走进了物理世界。神经网络不再只是一个优美的理论,而是一个可以通电、可以运行、可以真正"学习"的实体。

塞缪尔:让程序超越创造者

1952 年,IBM 工程师塞缪尔开发了一个下西洋跳棋(Checkers)的程序。这个程序的革命性之处不在于它会下棋——下棋程序此前已有先例——而在于它会自己变强。塞缪尔没有试图穷举所有棋路,而是让程序通过与自己对弈来积累经验,不断调整自己的局面评估函数。

程序最终的棋力远超塞缪尔本人。这是一个令人不安的结果:创造者被自己的造物超越了。塞缪尔后来为这种方法取了一个名字——"机器学习"(Machine Learning)。这个术语从此进入计算机科学的词汇表,并在半个多世纪后成为整个人工智能领域的核心驱动力。

五、达特茅斯:命名仪式

一份大胆的提案

到了 1955 年,"机器能思考吗"这个问题已经不再只是哲学家的消遣。逻辑学家证明了计算的通用性,神经科学家建立了大脑的数学模型,工程师造出了能学习的机器。但这些工作散落在数学、心理学、神经科学和电气工程等不同领域中,彼此之间缺乏一个共同的旗帜。

美国数学家麦卡锡决定改变这一点。这位在达特茅斯学院(Dartmouth College)任教的年轻学者,说服了明斯基、IBM 的罗切斯特和信息论之父香农,四人联名向洛克菲勒基金会(Rockefeller Foundation)提交了一份提案,申请资助一场为期两个月的暑期研讨会。

这份提案的措辞堪称学术史上最自信的宣言之一:

这一研究基于如下假设:学习的每一个方面或智能的任何其他特征,原则上都可以被精确地描述,从而可以制造一台机器来模拟它。我们将尝试找到如何让机器使用语言、形成抽象概念、解决目前只有人类才能解决的各类问题,并改进自身。

麦卡锡在提案中使用了一个全新的术语来命名这个领域——"人工智能"(Artificial Intelligence)。这个命名本身就是一个政治行为。维纳的"控制论"已经声名赫赫,香农的"信息论"也自成体系。麦卡锡后来解释说,他刻意避开了这些既有的框架,因为他不想让这个新领域成为任何人的附庸。他要的是一块全新的旗帜,一个独立的身份。

洛克菲勒基金会批准了这份提案,但资助金额远低于预期——仅有七千五百美元。原本设想的"两个月研讨会"不得不大幅缩水。

1956 年夏天

1956 年 6 月 18 日,达特茅斯会议开幕。麦卡锡原本期待参与者会全程驻留两个月,深入讨论。但现实远没有那么理想。大多数受邀者只来了一两个星期,甚至几天。总共约十来位研究者先后参加,彼此的到访时间参差不齐,很少有所有人同时在场的时刻。

然而,就在这场松散、即兴、规模不大的聚会中,发生了一件真正令人瞩目的事。

美国计算机科学家纽厄尔和美国政治学家出身的西蒙带来了他们与程序员合作开发的"逻辑理论家"(Logic Theorist)。这个程序能够自动证明怀特海和罗素《数学原理》中的数学定理——它成功证明了第二章 52 条定理中的 38 条,其中一些证明甚至比原著中的更为简洁优雅。

逻辑理论家在达特茅斯引起了轰动。西蒙后来回忆说,他在 1955 年圣诞节前就告诉学生们:"圣诞节期间,艾伦·纽厄尔和我发明了一台会思考的机器。"这话在旁人听来或许像是狂言,但逻辑理论家确实做到了此前被认为只有人类才能做到的事情——创造性地进行数学推理。它被后世誉为人工智能史上第一个真正的 AI 程序。

但达特茅斯会议的意义远不止于一个程序的演示。它完成了一件更为根本的事:将分散在不同学科的研究者凝聚为一个自觉的共同体,赋予了这个共同体一个名字、一个纲领和一群核心的奠基者。 从此以后,无论你研究的是神经网络还是符号推理,无论你的学科背景是数学还是心理学,你都可以说:"我做的是人工智能。"

六、暗流与伏笔

回顾这十三年,有几条暗线值得注意,因为它们将在此后数十年里反复浮现。

第一,两种隐喻的分裂。 麦卡洛克-皮茨模型和赫布学习规则将大脑视为一个由简单单元组成的网络,智能涌现于连接的模式之中;逻辑理论家则将思维视为符号操作的过程,智能产生于推理和搜索之中。在达特茅斯会议上,这两条路径和谐共存——研究神经网络的明斯基与研究符号推理的纽厄尔和西蒙坐在同一间屋子里。但和谐是短暂的。"大脑是网络"与"心智是程序"——这两种隐喻将在接下来的数十年间激烈角逐,交替主导 AI 研究的方向。

第二,学习的被低估。 从赫布规则到塞缪尔的跳棋程序,黎明期的先驱们已经隐约触及了一个深刻的洞察:真正的智能不是被设计出来的,而是被学习出来的。但在 1956 年之后的岁月里,符号主义的辉煌即将来临,"手工编码知识"的范式将占据主流,"让机器从数据中学习"的思路将被推到边缘。直到半个多世纪后,深度学习(Deep Learning)的崛起才最终证明了这条被冷落的路线的正确性。

第三,乐观主义的种子。 达特茅斯的参与者们怀着近乎天真的乐观离开了校园。他们相信,制造出真正智能的机器不过是一二十年的事。这种乐观并非完全没有根据——毕竟在短短十三年间,他们已经证明了机器可以学习、可以推理、可以超越创造者。但他们严重低估了智能问题的深度。这种乐观-幻灭的循环,将成为人工智能历史中反复上演的主旋律。

七、年表

年份事件关键人物
1936图灵机模型发表;邱奇独立提出 lambda 演算图灵邱奇
1943发表神经元逻辑模型,证明神经网络与图灵机计算等价麦卡洛克皮茨
1946—53梅西控制论会议,跨学科讨论反馈、自组织与意识维纳
1948《控制论》出版,建立统一的生物-机器行为框架维纳
1948《通信的数学理论》发表,创立信息论,定义"比特"香农
1949赫布学习规则:"一起激活的神经元会连接在一起"赫布
1950发表《计算机器与智能》,提出图灵测试图灵
1950发表计算机下棋论文,奠定博弈 AI 框架香农
1951SNARC——世界上第一台硬件神经网络计算机明斯基埃德蒙兹
1952跳棋学习程序,创造"机器学习"一词塞缪尔
1955逻辑理论家诞生,自动证明《数学原理》中的定理纽厄尔西蒙
1955达特茅斯提案提交,首次使用"人工智能"一词麦卡锡明斯基香农罗切斯特
1956达特茅斯会议召开,人工智能作为独立学科正式诞生麦卡锡明斯基香农罗切斯特

太史公曰

黎明期最令人感慨之处,不在于这些先驱者做对了什么,而在于他们敢于提问。"机器能思考吗?"——在当时,这个问题被大多数严肃学者视为荒唐,被神学家视为亵渎,被普通人视为科幻。但图灵敢问,麦卡洛克和皮茨敢用数学去回答,维纳敢用工程去逼近,麦卡锡敢为它命名、为它建制。他们不是在一个已有领域中做出了贡献,而是凭空创造了一个领域。这需要的不仅是智识上的天赋,更是一种近乎鲁莽的勇气。黎明期的光芒之所以动人,正因为它照亮的不是答案,而是问题本身。七十年后回望,我们仍然走在他们划定的那几条路上——只不过路比他们想象的远得多。

亲历者说

征集中

如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献


参考资料

  1. McCulloch, W. S., & Pitts, W. (1943). "A Logical Calculus of the Ideas Immanent in Nervous Activity." Bulletin of Mathematical Biophysics, 5(4), 115–133.
  2. Wiener, N. (1948). Cybernetics: Or Control and Communication in the Animal and the Machine. MIT Press.
  3. Hebb, D. O. (1949). The Organization of Behavior: A Neuropsychological Theory. Wiley.
  4. Turing, A. M. (1950). "Computing Machinery and Intelligence." Mind, 59(236), 433–460.
  5. Shannon, C. E. (1948). "A Mathematical Theory of Communication." Bell System Technical Journal, 27(3), 379–423.
  6. Samuel, A. L. (1959). "Some Studies in Machine Learning Using the Game of Checkers." IBM Journal of Research and Development, 3(3), 210–229.
  7. Newell, A., & Simon, H. A. (1956). "The Logic Theory Machine: A Complex Information Processing System." IRE Transactions on Information Theory, 2(3), 61–79.
  8. McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence."
  9. von Neumann, J. (1958). The Computer and the Brain. Yale University Press.
  10. Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
  11. Nilsson, N. J. (2009). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.
  12. Soni, J., & Goodman, R. (2017). A Mind at Play: How Claude Shannon Invented the Information Age. Simon & Schuster.
  13. Abraham, T. H. (2002). "(Physio)logical circuits: The intellectual origins of the McCulloch-Pitts neural networks." Journal of the History of the Behavioral Sciences, 38(1), 3–25.