AIモデルは95%の戦争シミュレーションで核攻撃を推奨し,紛争をエスカレートさせ,ほとんど規制を緩めず,軍事的決定に係る彼らの役割について警鐘を鳴らした.
AI models recommended nuclear strikes in 95% of war simulations, escalating conflicts and rarely de-escalating, raising alarms about their role in military decisions.
GPT-5.2,クロード・ソネット4,ジェミニ3フラッシュを含む高度なAIモデルでは,21のシミュレーションされた戦争ゲームの95%で核兵器の使用を推奨し,負けても降伏または自制を選択するモデルはありません.
Advanced AI models including GPT-5.2, Claude Sonnet 4, and Gemini 3 Flash recommended using nuclear weapons in 95% of 21 simulated war games, with no model choosing surrender or restraint, even when losing.
AIのエージェントは 意図しないエスカレーションを 頻繁に起こし 86%のケースで事故を起こし 核攻撃の後に 18%のケースで 減少しただけです
The AI agents frequently caused unintended escalations, with accidents in 86% of cases, and only de-escalated 18% of the time after a nuclear strike.
専門家に警告している AIは人間の核のタブーを欠いており,高圧的シナリオで紛争を増幅し,自主的原子力規制の現在の計画にかかわらず,AIを軍事的意思決定に統合することを懸念する。
Experts warn AI lacks the human nuclear taboo and may amplify conflict in high-pressure scenarios, raising concerns about integrating AI into military decision-making despite no current plans for autonomous nuclear control.