Skip to content

本纪第四 · 专家系统时代(1980—1987)

1980 年,一个帮 DEC 公司配置计算机的程序每年为公司节省两千五百万美元。同年,日本政府投入约四亿五千万美元启动第五代计算机计划,要在十年内造出会思考的机器。华尔街兴奋了,风投涌入了,LISP 机器公司的股票飞涨了。AI 从寒冬中醒来,一头扎进了商业化的热潮。没有人注意到,这场繁荣的地基和上一次一样脆弱。

一、核心之争:知识就是力量?

如果黄金时代的信条是"智能就是搜索",那么专家系统时代的信条就是"知识就是力量"(Knowledge is power)。

这个转变源于一个务实的洞察:与其追求遥不可及的通用智能,不如把特定领域专家的知识编码进程序,让机器在狭窄但有价值的领域达到专家级的表现。这条路线的旗手是费根鲍姆——他在 1977 年明确提出了"知识工程"(Knowledge Engineering)的概念,主张 AI 的瓶颈不是推理能力,而是知识获取。

费根鲍姆的论断扭转了 AI 研究的方向。黄金时代的研究者追求的是通用的推理引擎——给它任何问题,它都能用搜索和逻辑解决。费根鲍姆则说:推理引擎可以很简单,关键是往里面灌什么知识。一个装满了感染病学知识的系统可以像感染科医生一样诊断疾病;一个装满了计算机配置规则的系统可以像工程师一样配置硬件。

这个转向在哲学上是一次降维——从"制造通用智能"退缩到"模拟特定专长"。但在商业上,它是一次突破——因为它第一次让 AI 变得有用了。

二、R1/XCON:第一个赚钱的 AI

两千五百万美元的程序

专家系统时代的标志性事件发生在 1980 年。卡内基梅隆大学(CMU)的麦克德莫特为数字设备公司(Digital Equipment Corporation,DEC)开发了一个名为 R1(后更名为 XCON)的专家系统。R1 的任务很具体:根据客户的订单配置 VAX 计算机系统——选择合适的组件、检查兼容性、规划物理布局。

这个任务看似平凡,但它的商业价值是惊人的。在 R1 之前,DEC 需要一个由资深工程师组成的团队来手工完成每一份配置方案,耗时且容易出错。R1 上线后,每年为 DEC 节省了约两千五百万美元的成本,配置准确率达到 95% 以上。

R1/XCON 的成功是 AI 商业化的分水岭。它证明了一件简单但重要的事:AI 可以赚钱。这个消息传遍了整个商业世界,引发了一场专家系统的淘金热。

产业爆发

1980 年代上半叶,专家系统在企业界迅速扩散。到 1980 年代末,超过三分之二的《财富》500 强公司要么已经部署了专家系统,要么正在开发中。应用领域从制造业的故障诊断到金融业的信贷审批,从地质勘探到军事后勤,几乎无所不包。

一批专门的 AI 公司应运而生。Teknowledge、Intellicorp、Applied Intelligence Systems 等创业公司纷纷成立,向企业出售专家系统开发工具和咨询服务。据估计,到 1985 年,全球 AI 产业的年收入已达到约十亿美元。

三、LISP 机器:硬件的狂欢

专用芯片的诱惑

专家系统的繁荣带动了另一个市场:LISP 机器。

LISP 是专家系统的主要开发语言,但在通用计算机上运行 LISP 程序效率低下——通用处理器不是为 LISP 的递归调用、垃圾回收和符号操作优化的。这催生了一个大胆的想法:为什么不造一台专门运行 LISP 的计算机?

MIT 的 AI 实验室率先开发了 LISP 机器原型。两家公司——Symbolics 和 LMI(Lisp Machines, Inc.)——从 MIT 分裂而出,将 LISP 机器商业化。Symbolics 在 1985 年注册了互联网历史上第一个 .com 域名(symbolics.com),成为 AI 商业化时代的象征。此外,得州仪器(Texas Instruments)和施乐(Xerox)也推出了各自的 LISP 机器产品线。

LISP 机器的价格从五万到十几万美元不等——对于个人用户来说极其昂贵,但对于大型企业和政府实验室来说尚可接受。在鼎盛时期,LISP 机器市场的年销售额约为数亿美元。

一个注定消亡的市场

但 LISP 机器的商业模式建立在一个脆弱的前提之上:通用计算机永远不会快到足以高效运行 LISP。摩尔定律正在悄悄推翻这个前提。到 1980 年代中后期,通用微处理器(尤其是 Sun 工作站上的 RISC 芯片)的性能已经逼近甚至超过了 LISP 专用机,而价格只有后者的几分之一。

LISP 机器市场的崩溃来得又快又猛——它将成为第二次 AI 寒冬的导火索之一。

四、第五代计算机:日本的雄心

举国之力

1981 年,日本通商产业省(MITI)正式宣布启动"第五代计算机系统"(Fifth Generation Computer Systems,FGCS)计划,总投入约四亿五千万美元(约 540 亿日元),为期十年。

这个计划的目标雄心勃勃:开发一种全新的计算机架构,以并行推理机和 Prolog 语言为核心,能够进行自然语言理解、知识推理和智能对话。日本政府将其定位为国家战略——正如二十年前的半导体产业一样,日本要在 AI 领域实现弯道超车。

全球震动

第五代计划的宣布在全球引发了连锁反应。

美国的反应几乎是恐慌式的。DARPA 迅速启动了"战略计算倡议"(Strategic Computing Initiative,SCI),投入约十亿美元用于 AI 和先进计算研究。英国在阿尔维(Alvey)报告的推动下启动了阿尔维计划(Alvey Programme),投入约三亿五千万英镑——这等于推翻了莱特希尔报告的结论,承认英国在 AI 上的退缩是一个错误。欧洲也启动了 ESPRIT 计划。

第五代计划重新点燃了各国政府对 AI 的热情。但它也制造了一种基于竞争恐惧而非科学评估的投资逻辑——"日本人在做,我们不能落后"。这种逻辑在短期内为 AI 研究带来了大量资金,但也再次推高了预期。

最终的结局

第五代计划最终在 1992 年结束时,被普遍认为未能实现其核心目标。并行推理机的性能没有达到预期,基于 Prolog 的知识处理系统也没有展现出接近人类的智能。但这个计划并非毫无遗产——它推动了逻辑编程的研究,培养了一代日本计算机科学家,并且在某种意义上,通过刺激美国和欧洲的反应,为全球 AI 研究注入了大量资金。

五、知识瓶颈:繁荣背后的裂缝

在专家系统商业化的热潮中,一个深层问题正在浮现:知识获取瓶颈(Knowledge Acquisition Bottleneck)。

构建一个专家系统需要"知识工程师"花费数月甚至数年时间,对领域专家进行深入访谈,将专家的知识翻译成"如果-那么"(IF-THEN)规则,然后反复调试和验证。这个过程极其耗时、昂贵,而且依赖于知识工程师的个人技能。

更根本的问题是,许多专家知识是"隐性"(Tacit)的——专家自己都无法清晰地表述自己为什么做出某个判断。一位资深医生可能看一眼病人就有了初步诊断,但他说不清自己是根据什么——肤色?步态?语气?还是几十年经验中无数病例的模式匹配?这种直觉性的知识无法被翻译成 IF-THEN 规则。

随着专家系统被部署到越来越复杂的领域,知识瓶颈的问题变得越来越尖锐。系统变得越来越臃肿——规则数量动辄数千条——同时也越来越脆弱:一旦遇到规则未覆盖的情况,系统要么给出错误答案,要么完全无法工作。它们没有"常识"可以退守,没有"直觉"可以依赖,也无法从错误中学习。

费根鲍姆自己也意识到了这个问题。他在 1983 年与帕梅拉·麦科达克(Pamela McCorduck)合著的《第五代》(The Fifth Generation)一书中,既为专家系统的前景欢呼,也隐约承认知识获取是"AI 最困难的问题之一"。

六、暗流与伏笔

第一,"窄 AI"的成功与陷阱。 专家系统证明了 AI 可以在狭窄领域创造商业价值——这是黄金时代和寒冬都没有做到的。但"窄"也意味着脆弱。每个专家系统只能处理一个特定领域,无法迁移、无法学习、无法适应变化。当企业发现维护和更新这些系统的成本不断攀升时,失望就不可避免了。

第二,学习仍然被忽视。 专家系统的知识来自人工编码,而非从数据中学习。这意味着系统只能知道人类明确告诉它的东西——不会更多,也不会更少。在一个数据正在爆炸式增长的时代,这种方法论的局限性将越来越明显。

第三,硬件在加速。 1980 年代是微处理器性能飞速提升的年代。通用工作站的性能追上并超过了 LISP 专用机,为 LISP 机器市场的崩溃埋下了伏笔——也为更计算密集型的方法(如后来的神经网络)打开了空间。

第四,连接主义在复苏。 1986 年,辛顿鲁梅尔哈特威廉姆斯发表了反向传播算法的现代版本,证明多层神经网络可以被有效训练。这篇论文重新点燃了连接主义的希望——虽然要等到二十多年后 GPU 和大数据的成熟,这个希望才会真正兑现。

七、年表

年份事件关键人物
1980R1/XCON 专家系统在 DEC 上线,年省两千五百万美元麦克德莫特
1981日本宣布第五代计算机计划,总投入约四亿五千万美元
1982美国 DARPA 启动战略计算倡议(SCI)
1983英国启动阿尔维计划(Alvey Programme)
1983费根鲍姆与麦科达克出版《第五代》费根鲍姆
1985Symbolics 注册互联网第一个 .com 域名
1985全球 AI 产业年收入约十亿美元
1986反向传播算法论文发表,多层神经网络可被有效训练辛顿鲁梅尔哈特威廉姆斯
1980s 末超过三分之二的财富 500 强公司采用或开发专家系统
1987通用工作站性能超过 LISP 专用机,LISP 机器市场开始崩溃

太史公曰

专家系统时代是 AI 历史上最具商业色彩的章节。它证明了一件黄金时代和寒冬都没有证明的事:AI 可以赚钱。R1 每年为 DEC 省下的两千五百万美元比任何学术论文都更有说服力。但"能赚钱"和"已理解智能"之间有一道鸿沟。专家系统赚的是知识工程师的辛苦钱——他们一条一条地把人类专家的知识搬进机器,再一条一条地维护和更新。这不是学习,这是搬运。当搬运的成本超过了收益,泡沫就破了。更深的教训是:1980 年代的 AI 产业犯了和黄金时代同样的错误——用短期的成功来推断长期的前景。R1 能配置计算机不意味着专家系统能解决一切问题,正如 GPS 能解河内塔不意味着符号推理能产生通用智能。历史的钟摆即将再次摆向另一个极端。

亲历者说

征集中

如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献


参考资料

  1. McDermott, J. (1982). "R1: A Rule-Based Configurer of Computer Systems." Artificial Intelligence, 19(1), 39–88.
  2. Feigenbaum, E. A., & McCorduck, P. (1983). The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World. Addison-Wesley.
  3. Feigenbaum, E. A. (1977). "The Art of Artificial Intelligence: Themes and Case Studies of Knowledge Engineering." Proceedings of IJCAI-77.
  4. Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). "Learning representations by back-propagating errors." Nature, 323, 533–536.
  5. Shortliffe, E. H. (1976). Computer-Based Medical Consultations: MYCIN. Elsevier.
  6. Moto-oka, T. (1982). Fifth Generation Computer Systems. North-Holland.
  7. Alvey Committee (1982). A Programme for Advanced Information Technology: The Report of the Alvey Committee. HMSO.
  8. Buchanan, B. G., & Shortliffe, E. H. (1984). Rule-Based Expert Systems: The MYCIN Experiments of the Stanford Heuristic Programming Project. Addison-Wesley.
  9. Crevier, D. (1993). AI: The Tumultuous History of the Search for Artificial Intelligence. Basic Books.
  10. Nilsson, N. J. (2009). The Quest for Artificial Intelligence. Cambridge University Press.