Skip to content

书 · AGI 与 ASI:通往超级智能之路

从"机器能否思考"到"机器何时超越人类"——AGI 和 ASI 是 AI 领域最宏大也最具争议的命题,它既是技术目标,也是哲学困境,更是关乎人类命运的赌局。

待完善

本章节尚待撰写,欢迎参与贡献

大纲

一、概念定义

  • ANI(Artificial Narrow Intelligence):窄人工智能,只能执行特定任务——今天所有 AI 都是 ANI
  • AGI(Artificial General Intelligence):通用人工智能,在所有认知任务上达到或超过人类水平
  • ASI(Artificial Super Intelligence):超级人工智能,在所有维度上远超人类智能
  • 三者的关系:ANI → AGI → ASI 是一条假设的演进路径,但不一定是必然的

二、AGI 梦想的起源

  • Dartmouth 会议(1956):创始人们相信 AGI 就在眼前
  • 西蒙的预言(1965):"二十年内机器将能做到人类能做的一切"——错了半个世纪
  • 明斯基的乐观:"在一代人的时间内,创造人工智能的问题将基本解决"
  • 每一代 AI 研究者都低估了 AGI 的难度

三、AGI 为什么这么难

  • 常识问题(Common Sense):人类觉得"显而易见"的事情,机器完全不理解
  • 莫拉维克悖论(Moravec's Paradox):对机器来说,困难的(下棋)很简单,简单的(走路)极难
  • 框架问题(Frame Problem):如何让机器知道什么信息是相关的
  • 符号接地问题(Symbol Grounding Problem):符号如何与现实世界建立联系
  • 意识与理解:机器在"处理信息"还是在"理解"?中文房间论证(约翰·塞尔)

四、通往 AGI 的不同路线

规模扩展路线(Scaling Hypothesis)

  • 核心信念:更大的模型 + 更多的数据 = 最终涌现出 AGI
  • 支持者:奥特曼(Sam Altman)、苏茨克维(Ilya Sutskever,早期)
  • 证据:GPT 系列的涌现能力、规模定律(Scaling Laws)
  • 质疑:规模扩展是否有天花板?涌现是否等于理解?

世界模型路线

  • 核心信念:AGI 需要对物理世界有内在理解,不能只靠语言
  • 支持者:杨立昆(Yann LeCun)
  • 方法:JEPA、自监督学习、通过视觉和交互学习世界模型
  • 质疑:如何评估一个模型是否真正"理解"了世界?

混合架构路线

  • 核心信念:单一方法不够,需要结合多种能力
  • 神经符号融合(Neuro-Symbolic AI):结合深度学习与逻辑推理
  • 系统 1 + 系统 2:快速直觉(深度学习)+ 慢速推理(符号系统)
  • 支持者:珀尔(Judea Pearl)、Gary Marcus

具身路线

  • 核心信念:智能需要身体,需要在物理世界中行动和学习
  • 支持者:布鲁克斯(Rodney Brooks)
  • 方法:通过机器人与真实世界的交互发展智能

五、ASI:超级智能的可能与恐惧

  • 智能爆炸(Intelligence Explosion):古德(I.J. Good, 1965)提出,一旦机器能改进自身,将产生失控的智能增长
  • 博斯特罗姆(Nick Bostrom)《超级智能》(2014):系统性论述 ASI 的风险
  • 回形针最大化器(Paperclip Maximizer):一个追求简单目标的 ASI 可能毁灭人类
  • 控制问题(Control Problem):我们能否控制一个比我们聪明得多的存在?
  • 对齐问题:确保 ASI 的目标与人类利益一致

六、AGI 时间表之争

  • 奥特曼:"AGI 可能在几年内到来"
  • 辛顿(Geoffrey Hinton):"可能比我们想象的更快"(2023 年后转向悲观)
  • 杨立昆:"现在的方法达不到 AGI,还需要根本性突破"
  • 布鲁克斯:"AGI 至少还需要几十年"
  • Metaculus 预测平台:2040 年前后(持续提前中)
  • 历史教训:几乎所有 AGI 时间预测都太乐观了

七、当下的 AGI 赛跑

  • OpenAI:使命就是"确保 AGI 惠及全人类",内部据说已设定 AGI 里程碑
  • DeepMind:哈萨比斯(Demis Hassabis)的长期 AGI 愿景
  • Anthropic:试图在 AGI 到来之前解决安全问题
  • xAI:马斯克声称要打造"最大程度追求真理"的 AGI
  • Meta:杨立昆领导的开源 AGI 路线
  • SSI:苏茨克维创立的 Safe Superintelligence Inc.

八、AGI/ASI 的哲学困境

  • AGI 是否会有意识?意识是智能的必要条件吗?
  • 如果 AGI 有意识,它有权利吗?
  • AGI 是工具还是实体?
  • 人类定义的"智能"是否太以人类为中心?
  • 图灵测试够用吗?还是需要新的评估框架?

九、如果 AGI 到来

  • 经济影响:大规模失业还是生产力飞跃?
  • 权力集中:谁拥有 AGI,谁就拥有一切?
  • 国际关系:AGI 成为国家间的终极竞争?
  • 人类角色:在 AGI 世界中,人类的价值和意义是什么?
  • 乐观情景 vs 悲观情景

参考资料

待补充