人类正面临前所未有的不确定命运,专家们开始为“超级智能 AI”做最坏打算。
- 科技业内普遍相信,一个被称为“奇点”的时刻正在逼近,它将彻底改变一切。
- 最新研究显示,主流大模型的实际能力大约每 6 个多月就翻一倍,部分系统已经能独立完成相当于人类连续工作 16 小时的复杂任务。
- 一旦 AI 能递归式地参与自我开发,技术进步可能进入“超级指数”阶段,远超人类理解范围,也把监管和安全问题推到前所未有的高度。

它被称为“世界上最重要的一张图表”。
每当全球顶尖的人工智能公司发布新系统时,美国研究机构 METR 的员工都会对其进行测试,看看它在完成一系列日益复杂任务方面的表现如何。
这些任务用“一个熟练人类需要花多少时间完成”来衡量:从几秒就能搞定的简单算术、13 分钟完成一局猜词游戏 Wordle,到编写复杂的军事卫星软件(人类专家需 14.5 小时)。
这套测试用来衡量 AI 当前具备的能力,以及它未来可能走向何处。
2022 年发布的第一版 ChatGPT,只能完成对人类来说“几秒钟级别”的简单任务。
但随着 AI 系统不断增强,它们已经能完成一些人类要花数小时乃至数天才能做完的复杂行动,比如入侵一个医疗网站并下载其全部数据。
METR 发现,AI 能力正以“每 196 天翻一倍”的速度提升。如果把这些数据画成图表,曲线一开始爬升缓慢,之后却急剧上扬,几乎变成一条垂直直线。
只要和 AI 行业的人聊上一会儿,他们几乎 100% 会把这张图拿出来展示——甚至已经演变成圈内的一个梗。
然后,这张图表“爆表”了。
今年 4 月,AI 实验室 Anthropic 宣布开发出一个名为 Mythos 的新系统。该公司称,由于它能轻易发现互联网安全系统中的巨大漏洞,危险性太高,因此不向公众公开。
当 METR 公布 Mythos 的测试结果时,给它打了“16 小时”的分——这意味着,目前世界最强的 AI 已经可以自动完成需要人类两整班(两个 8 小时工作日)才能完成的任务。
但研究人员也表示,这个模型已经“接近我们测试能力的上限”。换句话说,进步快到连评估工具都快跟不上。
并非所有人都完全信服这些结果——因为这套测试只看“机器有一半概率能做到”,而不是“能否稳定、反复做到”。但 METR 的这张图之所以抓住了很多人的想象力,有两个原因:
第一,这条指数曲线与“摩尔定律”非常相似——后者是电子工业半个多世纪以来奉行的铁律,即芯片算力大约每两年翻一倍。
第二,它衡量的是“能力”,而不是抽象的“智力”。许多 AI 基准测试更像大学考试,考的是抽象推理或数学;而 METR 的测试研究的是 “AI 能不能真正干活”。
按当前趋势推演,未来几年内,大量人类任务都可能被自动化——其中最关键的一项,就是“开发 AI 模型本身”。
一旦跨过这个门槛,科技行业称之为“递归自我改进”(recursive self‑improvement),一切都变得难以预料。
这一概念与“超级智能 AI”紧密相关:因为如果 AI 能让自己不断变聪明,就可能像一场进化链式反应,迅速堆叠出远超人类的系统。
到那时,AI 将成为正如密码破译专家、布莱切利园老成员 IJ Good 在 1965 年所预言的那样——“人类需要创造的最后一项发明”。
在过去 60 年里,这看起来像是遥不可及的科幻。但如今,硅谷的许多人认为,这一切即将改变——而川普政府也开始意识到问题的严重性。
“我都不知道该怎么理解这件事”
对大多数人而言,过去两年自己身边的 AI 其实没什么“翻天覆地”的变化。
2022 年 ChatGPT 发布时,曾激起巨大兴奋与恐慌,但此后,进展似乎不那么直观:
很多人的 AI 体验,是社交媒体上看到明显假到不能再假的视频、在搜索结果顶端看到一段 AI 总结,或者邮箱里冒出一个“热情帮你总结邮件”的机器人。
但在第一线,研究和开发人员正在迅速提前他们对“超级智能到来时间”的预期。
Anthropic 联合创始人杰克·克拉克最近表示,他认为 到 2028 年,有 60% 的概率 AI 系统能够自己构建自己,引爆一个技术快速超越人类智力的反馈循环。
“我不知道该怎么理解这样的情景。”克拉克写道,“如果这真的发生,我们就会跨过卢比孔河,进入一个几乎无法预测的未来。”
就在几年前,研究者们对“机器在短时间内超越人类”的想法还相当悲观。
2018 年的一次学术会议调查认为,AI 超越人类、达到所谓“通用人工智能”(AGI)的时间大约在 2068 年左右,四分之一的受访者认为这一刻在未来 100 年内都不会到来。
2022 年类似的调查把时间往前挪了一点,认为 AGI 大约在 2060 年,一成受访者认为要 100 年以后。
一年后,这一时间点被拉近到 2047 年。
众包预测平台 Metaculus 的用户,将预测从六年前的 2070 年,一路调到 2032 年。
智库兰德公司的分析师在一份报告中评论:“各类预测已经从‘本世纪中叶’大幅提前到了‘近未来’。”
促成转变的,有两个关键技术节点。
第一个,是 2024 年底出现的所谓“推理型 AI 系统”。
早期 AI 虽然能生成一段接一段的文本,但几乎看不到什么“规划”或“分步骤解决问题”的迹象。
而推理型系统会展示类似“意识流”的中间思考过程,能给出更复杂、更连贯的答案,同时大幅减少“胡编乱造”(hallucination)的情况。
METR 研究员 Neev Parikh 认为,推理型系统的出现,让技术进展速度发生了明显跃迁:“之前大概是每七个月翻倍,到推理模型问世时,似乎一次性切换到三到四个月翻一倍的节奏。”
第二个,是 AI 写代码能力的质变。
过去几年,程序员会用 AI 帮写简单代码片段,但错误很多,必须人类反复检查。
2025 年底,AI 系统突然具备了“独立写出整套完整程序”的能力。英国程序员 Simon Willison 把这个瞬间称为一个“拐点”。
如今,大部分科技公司里的代码,已经是机器生成的。
“我们的团队都惊呆了”
最近几个月,大型 AI 公司开始公开宣称:他们的目标,就是打造能进一步进化为“超级智能”的 AI。
去年 12 月,OpenAI 把自己的目标写得非常直接:开发“能力不断增强的 AI,特别是具备递归自我改进能力(RSI)的 AI”。
“RSI”俨然成为风口热词,巨额资金正源源不断涌入追逐这一概念的创业公司——哪怕其中不少公司成立才几周,甚至连清晰的商业模式都没有。
刚刚在本周,英美合资初创公司 Recursive Superintelligence 宣布融资 6.5 亿美元,自称是在对“自我改进 AI”下一个大胆注脚。
硅谷另一家名字相似的 Ricursive Intelligence,也以 40 亿美元估值融到数亿美元。
英国则试图通过设立 5 亿英镑规模的“国家主权 AI 基金”,来增加自己在这一竞赛中的存在感。
今年 2 月,OpenAI 表示,旗下某个 AI 系统“首次参与到了自身的构建中”。
最新编码模型 GPT‑5.3‑Codex 的早期版本,就被部分用于测试后续版本——这是迈向“AI 自己开发自己”的早期步骤。
公司在声明中写道:“GPT‑5.3‑Codex 是我们第一个在自身开发过程中发挥关键作用的模型。它在加速自我迭代方面的表现让团队大为震撼。”
Parikh 说:“如果 AI 系统能在自身开发过程中持续、实质性地做出贡献,这种模式可能会将技术进步推向‘超级指数’级别。”
研究者普遍认为,一旦模型能实质性参与自身研发,进步速度会显著提升——不仅是模型能力本身,还包括科学突破、岗位替代、网络安全风险等一连串外溢效应。
Apollo Research CEO Marius Hobbhahn 打了个比方:“想象一下,你能把这个领域里最顶尖的研究员复制 1,000 到 1,000,000 个,会产生多大的科学进展?或者说,让 Anthropic 的研究团队一夜之间从几千人膨胀到几百万人,他们推进 AI 的速度会有多夸张?到那个时候,事情会变得非常疯狂。”
当然,并不是所有人都买账。
Meta 的 AI 研究员 Arun Rao 就对克拉克说,他认为这种预测“概率不高”。他的观点是:即便今天的机器人可以写代码,如果没人类监管,它们很可能会陷入“递归失败循环”,越改越糟。
此外,关于“AI 机器人数量爆炸式增长”的设想,也可能会受到现实约束:算力和电力资源有限,公众对数据中心的抵制情绪上升等,都会制约其扩张。
对很多人来说,这一切也确实过于抽象。
迄今为止,数千亿美元砸进 AI,以及各种“技术飞跃”的说法,对不少普通人而言收效有限,更别提那些对未来若隐若现的预测。
AI 确实冲击了一些研究生岗位,被指是部分大规模裁员的幕后推手,但真正“可以完整自动化掉”的职业还很少。科技突破和“科幻级灾难”目前也并不多见。
如果 AI 真要那么颠覆性,为什么我们暂时没看到更多直接迹象?
英国一个智库“英国进步中心”的最新研究指出,目前“没有证据表明 AI 在英国大规模取代就业岗位”。不过某些行业受到的冲击已经比较明显——作家协会的调查显示,37% 的插画师、43% 的翻译、86% 的作者表示,自己的收入因 AI 而下降。
这印证了评论者 Ethan Mollick 所说的“锯齿形边界”:AI 在一些复杂任务上表现近乎超人,却在一些基础任务上笨拙得令人咋舌——而这两者之间的距离,可能比我们想象得要短得多。
科技史里有不少例子:一旦 AI 接近人类水平,很快就会远远超越。
几十年里,国际象棋电脑一直打不过顶尖棋手。1996 年,世界冠军卡斯帕罗夫还险胜 IBM 的“深蓝”;一年后就被击败,再过几年,大师们已经完全不是最强棋力程序的对手。
“电力、计算机和互联网都曾承诺‘改变一切’,长期看确实如此。但在它们刚出现后的几十年里,从数据上看似乎几乎没改变什么。”英国进步中心写道。
研究者 Ajeya Cotra 认为,AI 自我研发的领域可能会出现类似轨迹。
她最近预测,当 AI 与人类在技术开发上的贡献达到“1:1”时,整个进步过程完全自动化只需要大约一年时间。
“到那时,相当于我们有了几百万名研究人员在推进 AI,而不是今天的几千人。我认为这会极大加速 AI 的发展速度。”她写道。
“史上最难挑战之一”
与此同时,一些 更危险的 AI 能力 已经开始显露端倪。
Anthropic 最近把新模型 Mythos 的访问权限限制在少数科技公司,因为该系统能够在电脑和浏览器中发现数以千计的安全漏洞。
如果这种能力落入黑客之手,后果不堪设想。
尽管有人认为这只是一种“夸张营销”,但初步结果似乎显示,Mythos 在错误人手里确实具有毁灭性的潜力。
Firefox(火狐浏览器)作为少数能接触该系统的公司之一,上周表示:在拿到 Mythos 的第一个月,就修复了 423 个安全漏洞——几乎是去年全年修复数量的两倍。
谷歌安全团队本周也表示,犯罪分子曾尝试利用他们在 AI 帮助下发现的一个漏洞发动重大网络攻击。
谷歌没有点名具体国家,但指出,中国和朝鲜的黑客对利用 AI 发动网络攻击“格外感兴趣”。
一些预测人士开始描绘通往“全能 AI”的路径图。
由前 OpenAI 研究员 Daniel Kokotajlo 牵头的 AI Futures 项目,勾勒出一个令人不安的场景:大约在 2027 年,AI 超过人类智力。
到 2028 年末,研究者预测:癌症可能被治愈,经济全面自动化,人类理论上不再需要工作。
再过三年,人类要么被毁灭,要么踏上殖民银河的道路,全看政府和 AI 公司在此期间做出怎样的选择。
也并非全是末日图景。
美国国家经济研究局近期的一篇论文预测,递归自我改进将引发一个技术创新的正反馈回路,带来“爆炸式”的经济增长。
但这些预测大多仍只是“有根据的猜测”。几年前,还没人想到 AI 会让程序员比卡车司机更早面临失业风险。
这也让“为此做准备”几乎成了不可能的任务。
前川普政府 AI 顾问 Dean Ball 最近表示,在当前 AI 公司几乎不受约束往前冲的情况下,“很难指望一群官僚坐在会议桌旁,就能设计并落实一套真的能改善局面的标准。”
Apollo Research 的 Hobbhahn 说,要让超级智能 AI 处在可控范围内,最终可能会成为“人类有史以来最困难的挑战之一”。
目前全球最顶尖的 AI 实验室都在美国,因此,从现实角度看,缰绳最终大概率得落在白宫手里。
到目前为止,川普一直鼓励 AI 在经济中“全面铺开”。他公开与那些试图限制、监管这项技术的州政府和外国政府唱反调。
但在白宫的某个角落,风向已经悄然转变。
Anthropic 公布 Mythos 后,其 CEO Dario Amodei 被召入白宫。华尔街几家最大银行的高管也被叫去开会,要求升级自身安全系统,以防范 AI 驱动的黑客攻击。
“这件事需要我们所有人一起着手应对。”美国副总统 JD Vance 在最近一次与科技企业高层的电话会议中说。
川普的经济顾问 Kevin Hassett 上周表示,未来的 AI 系统可能需要像药品一样,在上市前接受安全测试和审批。
尽管政府此后对部分言论有所“回调”,但态度转向已经十分明显。
Ball 评价说:“AI 政策已经明确进入了它的‘科幻时代’。怪事正在发生,更离谱的事还在路上。”(原文)
