本纪第四 · 专家系统时代(1980—1987)
1980 年,一个帮 DEC 公司配置计算机的程序每年为公司节省两千五百万美元。同年,日本政府投入约四亿五千万美元启动第五代计算机计划,要在十年内造出会思考的机器。华尔街兴奋了,风投涌入了,LISP 机器公司的股票飞涨了。AI 从寒冬中醒来,一头扎进了商业化的热潮。没有人注意到,这场繁荣的地基和上一次一样脆弱。
一、核心之争:知识就是力量?
如果黄金时代的信条是"智能就是搜索",那么专家系统时代的信条就是"知识就是力量"(Knowledge is power)。
这个转变源于一个务实的洞察:与其追求遥不可及的通用智能,不如把特定领域专家的知识编码进程序,让机器在狭窄但有价值的领域达到专家级的表现。这条路线的旗手是费根鲍姆——他在 1977 年明确提出了"知识工程"(Knowledge Engineering)的概念,主张 AI 的瓶颈不是推理能力,而是知识获取。
费根鲍姆的论断扭转了 AI 研究的方向。黄金时代的研究者追求的是通用的推理引擎——给它任何问题,它都能用搜索和逻辑解决。费根鲍姆则说:推理引擎可以很简单,关键是往里面灌什么知识。一个装满了感染病学知识的系统可以像感染科医生一样诊断疾病;一个装满了计算机配置规则的系统可以像工程师一样配置硬件。
这个转向在哲学上是一次降维——从"制造通用智能"退缩到"模拟特定专长"。但在商业上,它是一次突破——因为它第一次让 AI 变得有用了。
二、R1/XCON:第一个赚钱的 AI
两千五百万美元的程序
专家系统时代的标志性事件发生在 1980 年。卡内基梅隆大学(CMU)的麦克德莫特为数字设备公司(Digital Equipment Corporation,DEC)开发了一个名为 R1(后更名为 XCON)的专家系统。R1 的任务很具体:根据客户的订单配置 VAX 计算机系统——选择合适的组件、检查兼容性、规划物理布局。
这个任务看似平凡,但它的商业价值是惊人的。在 R1 之前,DEC 需要一个由资深工程师组成的团队来手工完成每一份配置方案,耗时且容易出错。R1 上线后,每年为 DEC 节省了约两千五百万美元的成本,配置准确率达到 95% 以上。
R1/XCON 的成功是 AI 商业化的分水岭。它证明了一件简单但重要的事:AI 可以赚钱。这个消息传遍了整个商业世界,引发了一场专家系统的淘金热。
产业爆发
1980 年代上半叶,专家系统在企业界迅速扩散。到 1980 年代末,超过三分之二的《财富》500 强公司要么已经部署了专家系统,要么正在开发中。应用领域从制造业的故障诊断到金融业的信贷审批,从地质勘探到军事后勤,几乎无所不包。
一批专门的 AI 公司应运而生。Teknowledge、Intellicorp、Applied Intelligence Systems 等创业公司纷纷成立,向企业出售专家系统开发工具和咨询服务。据估计,到 1985 年,全球 AI 产业的年收入已达到约十亿美元。
三、LISP 机器:硬件的狂欢
专用芯片的诱惑
专家系统的繁荣带动了另一个市场:LISP 机器。
LISP 是专家系统的主要开发语言,但在通用计算机上运行 LISP 程序效率低下——通用处理器不是为 LISP 的递归调用、垃圾回收和符号操作优化的。这催生了一个大胆的想法:为什么不造一台专门运行 LISP 的计算机?
MIT 的 AI 实验室率先开发了 LISP 机器原型。两家公司——Symbolics 和 LMI(Lisp Machines, Inc.)——从 MIT 分裂而出,将 LISP 机器商业化。Symbolics 在 1985 年注册了互联网历史上第一个 .com 域名(symbolics.com),成为 AI 商业化时代的象征。此外,得州仪器(Texas Instruments)和施乐(Xerox)也推出了各自的 LISP 机器产品线。
LISP 机器的价格从五万到十几万美元不等——对于个人用户来说极其昂贵,但对于大型企业和政府实验室来说尚可接受。在鼎盛时期,LISP 机器市场的年销售额约为数亿美元。
一个注定消亡的市场
但 LISP 机器的商业模式建立在一个脆弱的前提之上:通用计算机永远不会快到足以高效运行 LISP。摩尔定律正在悄悄推翻这个前提。到 1980 年代中后期,通用微处理器(尤其是 Sun 工作站上的 RISC 芯片)的性能已经逼近甚至超过了 LISP 专用机,而价格只有后者的几分之一。
LISP 机器市场的崩溃来得又快又猛——它将成为第二次 AI 寒冬的导火索之一。
四、第五代计算机:日本的雄心
举国之力
1981 年,日本通商产业省(MITI)正式宣布启动"第五代计算机系统"(Fifth Generation Computer Systems,FGCS)计划,总投入约四亿五千万美元(约 540 亿日元),为期十年。
这个计划的目标雄心勃勃:开发一种全新的计算机架构,以并行推理机和 Prolog 语言为核心,能够进行自然语言理解、知识推理和智能对话。日本政府将其定位为国家战略——正如二十年前的半导体产业一样,日本要在 AI 领域实现弯道超车。
全球震动
第五代计划的宣布在全球引发了连锁反应。
美国的反应几乎是恐慌式的。DARPA 迅速启动了"战略计算倡议"(Strategic Computing Initiative,SCI),投入约十亿美元用于 AI 和先进计算研究。英国在阿尔维(Alvey)报告的推动下启动了阿尔维计划(Alvey Programme),投入约三亿五千万英镑——这等于推翻了莱特希尔报告的结论,承认英国在 AI 上的退缩是一个错误。欧洲也启动了 ESPRIT 计划。
第五代计划重新点燃了各国政府对 AI 的热情。但它也制造了一种基于竞争恐惧而非科学评估的投资逻辑——"日本人在做,我们不能落后"。这种逻辑在短期内为 AI 研究带来了大量资金,但也再次推高了预期。
最终的结局
第五代计划最终在 1992 年结束时,被普遍认为未能实现其核心目标。并行推理机的性能没有达到预期,基于 Prolog 的知识处理系统也没有展现出接近人类的智能。但这个计划并非毫无遗产——它推动了逻辑编程的研究,培养了一代日本计算机科学家,并且在某种意义上,通过刺激美国和欧洲的反应,为全球 AI 研究注入了大量资金。
五、知识瓶颈:繁荣背后的裂缝
在专家系统商业化的热潮中,一个深层问题正在浮现:知识获取瓶颈(Knowledge Acquisition Bottleneck)。
构建一个专家系统需要"知识工程师"花费数月甚至数年时间,对领域专家进行深入访谈,将专家的知识翻译成"如果-那么"(IF-THEN)规则,然后反复调试和验证。这个过程极其耗时、昂贵,而且依赖于知识工程师的个人技能。
更根本的问题是,许多专家知识是"隐性"(Tacit)的——专家自己都无法清晰地表述自己为什么做出某个判断。一位资深医生可能看一眼病人就有了初步诊断,但他说不清自己是根据什么——肤色?步态?语气?还是几十年经验中无数病例的模式匹配?这种直觉性的知识无法被翻译成 IF-THEN 规则。
随着专家系统被部署到越来越复杂的领域,知识瓶颈的问题变得越来越尖锐。系统变得越来越臃肿——规则数量动辄数千条——同时也越来越脆弱:一旦遇到规则未覆盖的情况,系统要么给出错误答案,要么完全无法工作。它们没有"常识"可以退守,没有"直觉"可以依赖,也无法从错误中学习。
费根鲍姆自己也意识到了这个问题。他在 1983 年与帕梅拉·麦科达克(Pamela McCorduck)合著的《第五代》(The Fifth Generation)一书中,既为专家系统的前景欢呼,也隐约承认知识获取是"AI 最困难的问题之一"。
六、暗流与伏笔
第一,"窄 AI"的成功与陷阱。 专家系统证明了 AI 可以在狭窄领域创造商业价值——这是黄金时代和寒冬都没有做到的。但"窄"也意味着脆弱。每个专家系统只能处理一个特定领域,无法迁移、无法学习、无法适应变化。当企业发现维护和更新这些系统的成本不断攀升时,失望就不可避免了。
第二,学习仍然被忽视。 专家系统的知识来自人工编码,而非从数据中学习。这意味着系统只能知道人类明确告诉它的东西——不会更多,也不会更少。在一个数据正在爆炸式增长的时代,这种方法论的局限性将越来越明显。
第三,硬件在加速。 1980 年代是微处理器性能飞速提升的年代。通用工作站的性能追上并超过了 LISP 专用机,为 LISP 机器市场的崩溃埋下了伏笔——也为更计算密集型的方法(如后来的神经网络)打开了空间。
第四,连接主义在复苏。 1986 年,辛顿、鲁梅尔哈特和威廉姆斯发表了反向传播算法的现代版本,证明多层神经网络可以被有效训练。这篇论文重新点燃了连接主义的希望——虽然要等到二十多年后 GPU 和大数据的成熟,这个希望才会真正兑现。
七、年表
| 年份 | 事件 | 关键人物 |
|---|---|---|
| 1980 | R1/XCON 专家系统在 DEC 上线,年省两千五百万美元 | 麦克德莫特 |
| 1981 | 日本宣布第五代计算机计划,总投入约四亿五千万美元 | — |
| 1982 | 美国 DARPA 启动战略计算倡议(SCI) | — |
| 1983 | 英国启动阿尔维计划(Alvey Programme) | — |
| 1983 | 费根鲍姆与麦科达克出版《第五代》 | 费根鲍姆 |
| 1985 | Symbolics 注册互联网第一个 .com 域名 | — |
| 1985 | 全球 AI 产业年收入约十亿美元 | — |
| 1986 | 反向传播算法论文发表,多层神经网络可被有效训练 | 辛顿、鲁梅尔哈特、威廉姆斯 |
| 1980s 末 | 超过三分之二的财富 500 强公司采用或开发专家系统 | — |
| 1987 | 通用工作站性能超过 LISP 专用机,LISP 机器市场开始崩溃 | — |
太史公曰
专家系统时代是 AI 历史上最具商业色彩的章节。它证明了一件黄金时代和寒冬都没有证明的事:AI 可以赚钱。R1 每年为 DEC 省下的两千五百万美元比任何学术论文都更有说服力。但"能赚钱"和"已理解智能"之间有一道鸿沟。专家系统赚的是知识工程师的辛苦钱——他们一条一条地把人类专家的知识搬进机器,再一条一条地维护和更新。这不是学习,这是搬运。当搬运的成本超过了收益,泡沫就破了。更深的教训是:1980 年代的 AI 产业犯了和黄金时代同样的错误——用短期的成功来推断长期的前景。R1 能配置计算机不意味着专家系统能解决一切问题,正如 GPS 能解河内塔不意味着符号推理能产生通用智能。历史的钟摆即将再次摆向另一个极端。
亲历者说
征集中
如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献。
参考资料
- McDermott, J. (1982). "R1: A Rule-Based Configurer of Computer Systems." Artificial Intelligence, 19(1), 39–88.
- Feigenbaum, E. A., & McCorduck, P. (1983). The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World. Addison-Wesley.
- Feigenbaum, E. A. (1977). "The Art of Artificial Intelligence: Themes and Case Studies of Knowledge Engineering." Proceedings of IJCAI-77.
- Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). "Learning representations by back-propagating errors." Nature, 323, 533–536.
- Shortliffe, E. H. (1976). Computer-Based Medical Consultations: MYCIN. Elsevier.
- Moto-oka, T. (1982). Fifth Generation Computer Systems. North-Holland.
- Alvey Committee (1982). A Programme for Advanced Information Technology: The Report of the Alvey Committee. HMSO.
- Buchanan, B. G., & Shortliffe, E. H. (1984). Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project. Addison-Wesley.
- Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
- Nilsson, N. J. (2009). The Quest for Artificial Intelligence. Cambridge University Press.