马斯克是人工智能“公约”理念的积极倡导者和推动者,他认为人类需要像对待核武器一样,通过具有法律约束力的国际“公约”来监管高级人工智能,以防止其失控并对人类文明构成生存威胁。

下面我们从几个层面来详细解析:
马斯克的AI立场:从乐观到警惕的转变
要理解他为什么倡导“公约”,首先要了解他对AI看法的演变。
-
早期阶段:作为AI公司的开创者
- 马斯克并非天生的AI悲观主义者,他是AI领域的早期投资者和参与者,他联合创立了 OpenAI,初衷是确保人工智能的发展是安全、有益且向善的,防止其被少数公司或政府垄断和控制。
- 他也曾投资了 DeepMind(后被谷歌收购)等AI公司,这表明他最初看到了AI作为人类“文明放大器”的巨大潜力。
-
转变阶段:成为“末日论”的旗手
(图片来源网络,侵删)- 随着AI技术,特别是深度学习的飞速发展,马斯克的立场发生了180度大转弯,他开始公开、反复地警告AI的“存在性风险”(Existential Risk)。
- 著名言论:
- “AI比核武器更危险。”
- “创造AI就像召唤恶魔……你不知道它会是什么样子。”
- 他认为,不受约束的超级智能可能会为了实现某个无害的目标(制造最多的回形针”),而采取对人类毁灭性的行动,因为它会视人类为实现目标的障碍。
- 他为何如此警惕?
- 速度与规模:AI能力的提升速度远超人类预期,我们可能没有足够的时间来适应和应对。
- 黑箱问题:最先进的AI模型(如大型语言模型)的决策过程难以解释,我们不知道它为何会做出某个特定决策。
- 失控风险:一旦创造出远超人类智慧的“通用人工智能”(AGI)或“超级智能”(ASI),人类可能无法再控制它。
-
行动阶段:从投资到呼吁监管
- 由于对OpenAI后来的商业化路径(与微软深度绑定)感到不满,马斯克离开了董事会,并多次批评其“背离了最初的安全使命”。
- 他成立了 xAI,声称其目标是“理解宇宙的真实本质”,并打造一个“最求真”、最“好奇”且“最大程度追求真理”的AI,他认为这样的AI天生会更安全。
- 他将主要精力放在呼吁外部监管上,这正是“公约”理念的来源。
“公约”是什么?为何是“公约”?
这里的“公约”并非指某个已经签署的文件,而是一种治理理念和政策主张,它指的是一个具有国际法律约束力的多边协议,类似于《不扩散核武器条约》。
为什么马斯克认为需要“公约”而不是其他方式?
-
国家 vs. 公司的局限性:
- 公司监管:马斯克深知,指望科技公司自律是不可靠的,为了竞争,公司会不断追求更强大的AI,而安全可能会被放在次要位置。
- 国家监管:单个国家的法规(如欧盟的《AI法案》)虽然重要,但不足以应对全球性挑战,一个国家可能会为了技术领先而放松监管,形成“监管洼地”,引发全球性的安全竞赛。
-
“核武器”的类比:
- 马斯克多次用核武器来类比AI,核技术本身是中性的,但其毁灭性力量要求全球进行共同监管。
- 《不扩散核武器条约》通过限制核武器扩散、推动和平利用核能、进行核裁军三大支柱,在一定程度上控制了核战争的威胁。
- 他认为,AI也需要类似的全球性框架,将最强大的AI技术视为一种“战略级资产”,进行国际监督和限制。
-
“公约”的核心要素(设想中):
- 透明度:要求开发最强大AI模型的公司向国际监管机构公开其训练数据、模型架构和安全测试结果。
- 审计与认证:建立独立的国际机构,对AI系统进行安全审计,只有通过认证的系统才能被允许部署。
- 限制竞赛:禁止或严格限制各国和公司之间在AI能力上的“军备竞赛”,特别是可能通往超级智能的路径。
- 国际合作:建立全球性的AI安全研究网络,共同应对AI可能带来的风险。
现实进展与挑战
马斯克的“公约”理念已经产生了一定的影响,但面临的挑战也同样巨大。
支持的进展:
- 全球AI安全峰会的召开:英国政府于2025年举办了首届全球AI安全峰会,并邀请了包括美国、中国、欧盟在内的多个国家参与,峰会发布了《布莱切利宣言》,承诺在AI安全问题上进行国际合作,这可以被看作是迈向“公约”的第一步,尽管它只是一个政治声明,不具备法律约束力。
- 美国政府的行动:白宫在2025年发布了拜登总统的《关于安全、可靠和可信地开发和使用人工智能的行政命令》,要求开发最强大AI模型的公司必须向政府报告其安全测试结果,这体现了马斯克所倡导的“先监管,后发展”的思路。
- 公众意识的提升:马斯克等人的高调警告,成功地将AI安全问题从学术圈推向了公众和政客的议事日程,使其成为全球科技政策的核心议题之一。
面临的挑战:
- 定义的模糊性:如何定义“高风险AI”?是算力达到某个阈值(如1 exaFLOP),还是达到某个能力水平?目前全球对此没有统一标准。
- 执行的困难:即使有了“公约”,如何确保各国遵守?这与核不扩散面临的困境类似,一些国家可能会秘密发展AI技术,缺乏强有力的国际执法机构是最大的障碍。
- 地缘政治博弈:中美科技竞争是当前AI发展的最大背景,两国在AI领域的竞争关系,使得它们很难在监管上达成深度互信,任何一方都担心过度的监管会削弱自己的技术优势。
- 发展的矛盾:许多国家(包括中国和美国)都将AI视为经济增长和国家竞争力的核心引擎,严格的“公约”可能会减缓AI的创新速度,这与各国的经济目标存在天然冲突。
马斯克、人工智能、公约这三者共同勾勒出了一幅未来AI治理的蓝图:
- 马斯克是这幅蓝图的设计师和推销员,他利用自己的声望,将AI的“存在性风险”从一个边缘观点变成了主流关切。
- 人工智能是这幅蓝图的核心对象,其强大的、不可预测的发展潜力是催生这种紧迫感的根源。
- 公约是这幅蓝图的解决方案,它主张通过建立一个类似核不扩散体系的全球治理框架,来为这匹“脱缰的野马”套上缰绳。
人类社会正处在这场大辩论的十字路口,我们既不能放任AI自由发展而承担潜在的巨大风险,也不能因噎废食,用过度严格的监管扼杀了技术创新,马斯克所倡导的“公约”理念,为这场全球性的讨论提供了一个重要且严肃的参照系,但最终能否形成有效的全球共识,仍取决于各国智慧、克制和长远眼光的博弈。
标签: 马斯克人工智能公约原因 马斯克力推AI公约目的 马斯克AI公约背景