本纪第十 · 生成式 AI 浪潮(2022—2026)
2022 年 11 月 30 日,OpenAI 悄悄上线了一个名为 ChatGPT 的聊天机器人。没有新闻发布会,没有广告投放——只是在社交媒体上发了一条推文。五天后,用户数突破一百万。两个月后,突破一亿。人类历史上没有任何消费级产品以如此速度传播。AI 从实验室走进了每个人的口袋。一切都在加速:模型在变大,投资在涌入,监管在追赶,争论在激化。没有人知道终点在哪里——但每个人都知道,回不去了。
一、核心之争:AI 的能力边界在哪里?
ChatGPT 的发布将一个此前只在 AI 社区内部讨论的问题推到了全人类面前:AI 到底能做什么,不能做什么?
乐观者指向 GPT-4 的惊人表现——它可以通过律师资格考试、写出可执行的代码、用多种语言流畅对话、解释复杂的科学概念。他们认为通用人工智能(AGI)不再是遥远的幻想,而是十年内可能实现的目标。
悲观者则指出大语言模型的根本局限——它们会"幻觉"(Hallucination),即自信地编造不存在的事实;它们没有真正的"理解",只是在做极其复杂的模式匹配;它们无法进行可靠的逻辑推理,在简单的数学题上经常出错。
这场争论至今没有定论。但有一件事是清晰的:无论 AI 的当前能力是否构成"真正的智能",它已经深刻地改变了数亿人的工作和生活方式。这一次,影响不再停留在学术论文和行业报告中——它发生在每个人的屏幕上。
二、ChatGPT:引爆点
一百万用户,五天
2022 年 11 月 30 日,OpenAI 发布了 ChatGPT——基于 GPT-3.5 的对话式 AI。它的技术基础是 InstructGPT 引入的人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)——用人类标注者对模型输出的质量进行排序,然后用强化学习来优化模型的对话行为。
值得注意的是,OpenAI 内部并没有把 ChatGPT 当作一款重要产品。它被定位为一次"低调的研究预览"(low-key research preview),目的是通过真实用户的对话收集反馈,为即将到来的 GPT-4 做准备。据多位前员工回忆,内部对发布结果的预期极其保守——有人甚至打赌发布一周后用户量会停在几万。没有人想到世界的反应会是那样。
ChatGPT 的用户增长速度创造了历史纪录:5 天 100 万用户,2 个月 1 亿用户——此前的纪录保持者是 TikTok(9 个月达到 1 亿)和 Instagram(2.5 年)。
ChatGPT 的成功不在于某个单一的技术突破。GPT-3 的能力在两年前就已经展示过了。但 ChatGPT 做了一件 GPT-3 没做的事:它给了普通人一个可以直接使用的界面。你不需要理解 prompt engineering,不需要 API 密钥,不需要任何技术背景——打开浏览器,打字,按回车。这种极低的使用门槛将大语言模型的能力从少数开发者扩展到了全球数亿用户。
GPT-4:多模态的飞跃
2023 年 3 月 14 日,OpenAI 发布了 GPT-4。相比 GPT-3.5,GPT-4 在推理能力、知识广度和指令遵循方面都有显著提升。它可以通过美国律师资格考试(BAR exam)的模拟题,成绩位于应试者的前 10%。它还具备了多模态能力——可以理解图像输入(如分析图表、读取手写笔记、理解漫画的幽默)。
GPT-4 的参数量从未被 OpenAI 正式公布,但据报道约在 1 万亿级别——是 GPT-3 的 5-6 倍。它的训练成本据估计超过 1 亿美元。
三、百模大战:全球竞赛
ChatGPT 的成功引发了全球范围的大模型军备竞赛。
闭源阵营
- 谷歌:2023 年 12 月发布 Gemini(整合了原 DeepMind 和谷歌大脑的研究力量),具备原生多模态能力。
- Anthropic:阿莫代领导的团队在 2023-2024 年间发布了 Claude 系列模型,以安全性和长上下文处理能力见长。到 2024 年,Claude 已经成为 ChatGPT 最有力的竞争者之一。
- OpenAI:持续迭代 GPT 系列,2024 年发布 GPT-4o(原生多模态,实时语音交互),2025 年发布 GPT-5。
开源阵营
2023 年 2 月,Meta 发布了 LLaMA(Large Language Model Meta AI),图夫龙是第一作者。LLaMA 的模型权重被"泄露"到互联网上(Meta 后来对后续版本采取了更开放的策略),引发了一场开源大模型的井喷。
Mistral(法国,2023)、千问(阿里巴巴,2023)、DeepSeek(中国,2024-2025)等开源模型相继涌现。它们证明了一件重要的事:顶尖的大模型能力不必被少数几家公司垄断。
2025 年 1 月,中国团队 DeepSeek 发布的 DeepSeek-R1 以极低的训练成本实现了接近 GPT-4 水平的推理能力,震动了全球。这打破了"只有数十亿美元预算才能训练顶尖模型"的假设,也让硅谷重新审视了中国 AI 的竞争力。
四、AI 改变世界
工作方式的重塑
到 2025 年,大语言模型已经深度渗透到几乎每一个知识型工作领域:
- 编程:GitHub Copilot 和类似工具被数百万开发者使用,据估计辅助生成了约 40% 的新增代码。
- 写作与内容创作:从营销文案到学术论文初稿,AI 辅助写作成为常态。
- 教育:AI 辅导系统开始个性化教学,也引发了关于学术诚信的激烈讨论。
- 医疗:AI 辅助诊断、药物发现和医学影像分析快速推进。
- 法律与金融:合同审查、合规检查、财务分析等任务中 AI 的参与度大幅提升。
科学发现
AI 对科学研究的加速效应在这一时期变得更加显著。AlphaFold 对蛋白质结构预测的突破只是开始。到 2025 年,AI 已被用于新材料发现、气候模型优化、天文数据分析、数学定理证明等广泛领域。
2024 年的诺贝尔物理学奖授予了辛顿(因对人工神经网络和机器学习的基础性贡献),化学奖授予了哈萨比斯(因 AlphaFold 对蛋白质结构预测的突破)。这是 AI 研究者首次获得诺贝尔奖——标志着 AI 从工具变成了科学发现的引擎。
五、AI 安全与治理
对齐问题
随着模型能力的增长,"对齐"(Alignment)——确保 AI 系统的行为符合人类意图和价值观——从理论问题变成了迫切的工程问题。
2023 年 11 月,OpenAI 经历了一场戏剧性的内部危机:董事会突然解雇了 CEO 奥特曼,据报道原因与 AI 安全的方向分歧有关。苏茨克维最初支持了解雇决定,但在员工的大规模反弹后改变了立场。奥特曼在五天内复职,苏茨克维此后离开了 OpenAI。这场危机将 AI 安全的内部张力暴露在了全世界面前。
全球监管竞赛
各国政府开始加速制定 AI 监管框架:
- 欧盟:2024 年通过《人工智能法案》(AI Act),建立了全球第一个全面的 AI 监管框架,按风险等级对 AI 应用进行分类管理。
- 美国:2023 年 10 月,拜登总统签署了《关于安全、可靠和值得信赖的人工智能的行政命令》。
- 中国:2023 年起陆续出台了生成式 AI 管理办法、算法推荐管理规定等一系列法规。
- 到 2026 年,全球超过 70 个国家和地区出台了 AI 相关政策或法规。
AI 安全声明
2023 年 5 月,包括辛顿、本吉奥、奥特曼、哈萨比斯在内的数百位 AI 研究者和产业领袖签署了一份声明:"减轻 AI 造成的灭绝风险应成为全球优先事项,与应对大流行病和核战争等风险并列。"这份只有一句话的声明引发了广泛关注和争议。
辛顿在 2023 年 5 月离开谷歌,公开表示希望能够自由地讨论 AI 的风险。他从深度学习最坚定的倡导者变成了最响亮的警告者之一——这个转变本身就是时代变迁的标志。
六、暗流与伏笔
第一,AI Agent 的兴起。 到 2025 年,AI 不再只是被动回答问题的聊天机器人。AI Agent(智能体)开始能够自主规划任务、调用工具、搜索信息、执行代码,甚至协调多个 Agent 完成复杂工作流。这预示着 AI 从"对话工具"向"自主行动者"的演进。
第二,视频生成的突破。 2024 年 2 月,OpenAI 展示了 Sora——一个能根据文字描述生成高质量视频的模型。虽然生成质量仍有明显瑕疵,但它暗示了一个方向:AI 不仅能理解和生成文字和图片,还将扩展到视频、3D、音乐等所有媒介形式。
第三,算力的瓶颈与突破。 训练 GPT-4 级别的模型需要数万块 GPU 运行数月,成本以亿美元计。芯片供应、数据中心建设和能源消耗成为 AI 发展的物理约束。与此同时,模型效率优化(如稀疏化、蒸馏、混合专家模型 MoE)也在快速推进——DeepSeek-R1 的成功就是效率突破的一个例证。
第四,这个故事还没有结局。 截至 2026 年,AI 的发展速度仍在加速。AGI 是否会在十年内实现?AI 是否会大规模取代人类工作?AI 安全问题能否被有效治理?这些问题都悬而未决。唯一确定的是:我们正身处 AI 历史上变化最快的时期——而这段历史仍在书写。
七、年表
| 年份 | 事件 | 关键人物 |
|---|---|---|
| 2022.11 | ChatGPT 发布,5 天用户破百万,2 个月破亿 | 奥特曼 |
| 2023.2 | Meta 发布 LLaMA 开源大模型 | 图夫龙 |
| 2023.3 | GPT-4 发布,通过律师资格考试模拟题(前 10%) | 奥特曼 |
| 2023.5 | AI 灭绝风险声明发表,数百位领袖签署 | 辛顿、本吉奥、奥特曼 |
| 2023.5 | 辛顿离开谷歌,公开警告 AI 风险 | 辛顿 |
| 2023.11 | OpenAI 内部危机,奥特曼被解雇又复职 | 奥特曼、苏茨克维 |
| 2023.12 | 谷歌发布 Gemini 多模态模型 | 哈萨比斯 |
| 2024.2 | OpenAI 展示 Sora 视频生成模型 | — |
| 2024.3 | 欧盟通过《人工智能法案》 | — |
| 2024.10 | 辛顿获诺贝尔物理学奖,哈萨比斯获诺贝尔化学奖 | 辛顿、哈萨比斯 |
| 2025.1 | DeepSeek-R1 以极低成本实现顶尖推理能力 | — |
| 2026 | AI 深度融入各行各业,全球超 70 个国家出台 AI 政策 | — |
太史公曰
从 1943 年麦卡洛克和皮茨写下第一个神经元模型,到 2026 年大语言模型在每个人的口袋里运行,AI 走过了八十三年。在这段历史中,有两次黄金时代和两次寒冬,有符号主义与连接主义的路线之争,有从手工编码到数据驱动的范式转移,有少数人在寒冬中的坚守和多数人在繁荣中的涌入。如果说这段历史有一个主旋律,那就是:人类一直在低估智能问题的复杂性,同时也一直在低估自己解决这些问题的能力。两次寒冬让人以为 AI 死了,但它每一次都以更强大的姿态回归。ChatGPT 让人以为 AGI 近在咫尺,但通用智能的深层问题——常识、因果推理、价值对齐——至今没有被真正解决。乐观和悲观都不可靠。可靠的只有一件事:这个故事还远远没有结束。作为这段历史的记录者,我们唯一的责任是:如实记录,如实反思,让后来者看到完整的图景——包括辉煌,也包括教训。
亲历者说
征集中
如果你了解这段历史的第一手资料或亲历者回忆,欢迎提交贡献。
参考资料
- OpenAI (2022). "Introducing ChatGPT." OpenAI Blog, November 30, 2022.
- OpenAI (2023). "GPT-4 Technical Report." arXiv:2303.08774.
- Touvron, H. et al. (2023). "LLaMA: Open and Efficient Foundation Language Models." arXiv:2302.13971.
- Anthropic (2024). "The Claude 3 Model Family." Anthropic Technical Report.
- EU (2024). "Regulation (EU) 2024/1689 laying down harmonised rules on artificial intelligence (AI Act)."
- CAIS (2023). "Statement on AI Risk." Center for AI Safety, May 2023.
- Ramesh, A. et al. (2022). "Hierarchical Text-Conditional Image Generation with CLIP Latents." arXiv:2204.06125.
- Rombach, R. et al. (2022). "High-Resolution Image Synthesis with Latent Diffusion Models." CVPR 2022.
- DeepSeek AI (2025). "DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning." arXiv:2501.12948.
- The White House (2023). "Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence."
- Hu, E. J. et al. (2022). "LoRA: Low-Rank Adaptation of Large Language Models." ICLR 2022.