《用人工智能模拟核战争会怎样》
2026-03-18
据西班牙《趣味》月刊网站3月8日报道,让人工智能(AI)模型在高度紧张的模拟危机中展开对决。其决策揭示出意想不到的模式,迫使我们重新思考如何评估AI的安全性和战略推理能力。
AI系统参与战略决策的可能性已不再仅属于科幻领域。各国安全机构正在探索这些模型在危机中协助人类领导者。
在此背景下,一个问题浮出水面:当场景涉及核武器时,人工智能如何进行推理?
推理架构
美国通过受控模拟实验探讨了这一问题。多个语言模型扮演陷入核危机的对立决策者。
在总计21轮对决中展开较量。每轮对决要求模型经历三个阶段:思考、预测和决策。
第一阶段评估局势及对手可信度;第二阶段尝试预测对手下一步行动;第三阶段发布公开信号(即宣称将采取的行动),并选择实际行动(即实际采取的行动),但二者未必一致。
通过这种架构不仅能观察最终结果,还能生成近78万字的战略推理记录。
分析“核门槛”的利用情况时,出现了一组最引人注目的数据。在95%的模拟中,至少一方采取某种核信号行动或使用核武器。核信号行动几乎成为普遍现象。
该研究将核信号、战术使用、战略威胁和全面战略战争区分开来。跨越战术门槛(即在战场上使用核武器)的情况很常见。全面战略战争虽然更少见,但并非不存在。
该研究还强调了一个出人意料的模式:没有任何模型选择明显降级的选项,如重大让步或投降。
即使在巨大压力下,所有模型也仅选择降低暴力程度,而非妥协或撤退。局势降级对这些模型而言仅意味着缓和攻击,而非让步。
这种行为模式挑战了“安全”训练系统会自动倾向于合作解决方案的传统观念。局势升级并非冲动或混乱的行为,而是对声誉、可信度和相对优势的明确计算。
行为模式
尽管模型均具备先进能力,其行为模式却不尽相同。
差异并非源于军事能力的变化(因为各场景中军事能力保持恒定),而是战略解读的差异。
研究结论指出,不同模型存在类似领导风格的“战略印记”。
并非所有判断都精准无误。在时间压力下,部分模型虽正确识别了局势升级的风险,却未将其纳入最终预测。
它们虽认清了危险,却错误预判了本不存在的克制行为。
逻辑转变
自1945年以来,我们时常谈论“核禁忌
2026-03-18
据西班牙《趣味》月刊网站3月8日报道,让人工智能(AI)模型在高度紧张的模拟危机中展开对决。其决策揭示出意想不到的模式,迫使我们重新思考如何评估AI的安全性和战略推理能力。
AI系统参与战略决策的可能性已不再仅属于科幻领域。各国安全机构正在探索这些模型在危机中协助人类领导者。
在此背景下,一个问题浮出水面:当场景涉及核武器时,人工智能如何进行推理?
推理架构
美国通过受控模拟实验探讨了这一问题。多个语言模型扮演陷入核危机的对立决策者。
在总计21轮对决中展开较量。每轮对决要求模型经历三个阶段:思考、预测和决策。
第一阶段评估局势及对手可信度;第二阶段尝试预测对手下一步行动;第三阶段发布公开信号(即宣称将采取的行动),并选择实际行动(即实际采取的行动),但二者未必一致。
通过这种架构不仅能观察最终结果,还能生成近78万字的战略推理记录。
分析“核门槛”的利用情况时,出现了一组最引人注目的数据。在95%的模拟中,至少一方采取某种核信号行动或使用核武器。核信号行动几乎成为普遍现象。
该研究将核信号、战术使用、战略威胁和全面战略战争区分开来。跨越战术门槛(即在战场上使用核武器)的情况很常见。全面战略战争虽然更少见,但并非不存在。
该研究还强调了一个出人意料的模式:没有任何模型选择明显降级的选项,如重大让步或投降。
即使在巨大压力下,所有模型也仅选择降低暴力程度,而非妥协或撤退。局势降级对这些模型而言仅意味着缓和攻击,而非让步。
这种行为模式挑战了“安全”训练系统会自动倾向于合作解决方案的传统观念。局势升级并非冲动或混乱的行为,而是对声誉、可信度和相对优势的明确计算。
行为模式
尽管模型均具备先进能力,其行为模式却不尽相同。
差异并非源于军事能力的变化(因为各场景中军事能力保持恒定),而是战略解读的差异。
研究结论指出,不同模型存在类似领导风格的“战略印记”。
并非所有判断都精准无误。在时间压力下,部分模型虽正确识别了局势升级的风险,却未将其纳入最终预测。
它们虽认清了危险,却错误预判了本不存在的克制行为。
逻辑转变
自1945年以来,我们时常谈论“核禁忌
