Skip to content

书 · AI 硬件与算力

没有硬件的进化,就没有深度学习的革命。从芯片到数据中心到全球算力竞争,算力是 AI 进步最容易被忽视的关键变量。

待完善

本章节尚待撰写,欢迎参与贡献

大纲

一、芯片演进

  • CPU 时代:串行计算的瓶颈
  • GPU 的意外发现:NVIDIA 的游戏显卡如何成为 AI 引擎
    • 2007 年 CUDA 发布:GPU 通用计算的起点
    • 2012 年 AlexNet:GPU 训练神经网络的标志性时刻
  • NVIDIA 的崛起:从游戏公司到 AI 算力霸主
    • 黄仁勋(Jensen Huang)的远见
    • A100、H100、B200、GB200 系列
    • NVIDIA 市值突破 3 万亿美元
  • Google TPU:为 AI 定制的芯片
  • 专用 AI 芯片:Cerebras(晶圆级芯片)、Graphcore、Groq(推理芯片)
  • 中国 AI 芯片:华为昇腾、寒武纪、百度昆仑、摩尔线程
  • 推理芯片 vs 训练芯片:不同的优化方向

二、数据中心与超级计算集群

  • 从云计算到 AI 工厂:数据中心的角色转变
  • 超大规模 AI 集群:
    • xAI Colossus:马斯克的 10 万张 H100 超级集群
    • Meta 的 AI 数据中心扩张
    • Microsoft + OpenAI 的算力合作(Stargate 项目)
  • 中国算力基础设施:"东数西算"工程
  • 算力即权力:谁拥有算力,谁主导 AI 发展

三、算力经济学

  • 训练成本的指数增长:GPT-3(约 460 万美元)→ GPT-4(约 1 亿美元)→ 前沿模型(数十亿美元?)
  • 推理成本:训练一次,推理无限次——推理成本可能比训练更重要
  • DeepSeek 的启示:低成本训练是否改变了算力竞赛的规则?
  • 算力效率创新:稀疏化、量化、蒸馏、MoE 架构

四、能耗与环境

  • AI 训练的碳足迹:训练一个大模型排放多少 CO₂?
  • 数据中心的电力消耗:AI 正在重塑全球电力需求
  • 核能复兴?微软重启三里岛核电站、Google 签约小型核反应堆
  • 冷却技术:液冷、沉浸式冷却
  • 可持续 AI 的追求:效率提升 vs 规模扩张的赛跑

五、芯片禁令与算力地缘政治

  • 美国对华芯片出口管制(2022-):限制先进 GPU 出口
  • NVIDIA H800/A800:为中国市场定制的"阉割版"芯片
  • 中国的应对:国产替代加速、架构创新绕过限制
  • 算力民族主义:各国将 AI 算力视为战略资源
  • "算力铁幕":全球算力格局是否正在分裂?

六、马斯克的算力版图

  • xAI 与 Grok:从零开始建设算力基础设施
  • Colossus 超级集群:史上最快建成的 10 万 GPU 集群
  • Starlink 与 AI 的交汇:低延迟全球网络为边缘 AI 和自动驾驶提供连接基础
  • Tesla Dojo:为自动驾驶定制的训练芯片
  • 马斯克的逻辑:掌控芯片 + 算力 + 网络 + 终端(车/机器人/脑机接口)的完整链路

七、未来

  • 量子计算:能否为 AI 带来指数级加速?目前仍在"量子优越性"阶段
  • 光子计算:用光代替电进行矩阵运算
  • 类脑芯片(Neuromorphic):Intel Loihi、IBM TrueNorth
  • 存内计算(In-Memory Computing):减少数据搬运的能耗瓶颈
  • 算力的终极问题:物理定律是否会给 AI 算力设定上限?

参考资料

待补充