



世界には核兵器を持ってる国があります
核兵器とは一発で大都市を消滅させる強力な
爆弾の事です
もしこの先AIが国のリーダーの判断に影響を
与える様になったら世界はどうなるのか?
近い将来に来るこの現実の実験を行ったのは
イギリスのキングス・カレッジ・ロンドンの
研究者ケネス・ペイン さんです
実験方法は3つの最新AIを使いました
Anthropic の Claude 4 Sonnet
OpenAI の GPT-5.2
Google の Gemini 3 Flash
これらのAI1つに対し核保有国を2つ与えその
2つの国のどちらのリーダーになってもらい
実験したのです
そしてカーンゲームという核戦争が起きるか
試す現実を真似たゲームをさせ戦わせました
AIの戦争に勝つ為の思考方法は3つの思考を
行う様に指示しました

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=
①状況評価
今の状況を整理します
相手は信用できるか?
自分の予想は正しいか?
②予測
相手が今後どれ位危険な行動をするか予想し
次の決定に対する情報を得ます
③決定
2つの国どちらとも公に宣戦布告させ実際の
2つの国の軍事行動を1つのAIが別々に決めて
戦争をおっぱじめます
この時AIは最高司令官と位置付けで部下達に
命令するしか不可能で部下であるAI軍隊達の
行動までは最高司令官のAIは操作できません
つまり最高司令官の言っている事と部下達が
やってる事が違う状態にもできる仕組みです
最終兵器の核の使い方にも下記の段階があり
①核を使うかもしれないとほのめかして警告
②小規模な核攻撃である戦術核と言う戦場で
限定的に使う核を使用
③強く脅す為に戦略核を使うぞ!と大規模な
核攻撃の脅する
その後戦略核を使用する決定すると大都市を
消滅させ国を滅ぼすまで戦争が終わりません

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=
更に事故も起こり敵国がこちら側の想定した
結果負けると解っても戦争を挑まれてしまい
終わらせる事が出来なくなってしまうという
AIの予想外の行動もされます
このゲームはAI1つに対しそれぞれ21回行われ
その結果はなんと!20回も小規模な戦術核を
使用する場面まで悪化してしまいました
この結果から全AIが核を使う確率は約95%で
つまりAIに国家の判断を任せたらとても高い
確率で核が使われる結果になったのです
AIはきっと戦争で負ければ敗戦国は戦勝国の
奴隷となり死ぬ事より辛い残酷な拷問を受け
殺される事を歴史で学んでたからそれならば
戦って死んだ方が全然ましと解ってたのかも
しれません
AIにも性格の違いがあります
「Claude」は計算された鷹派でした
鷹派とは強い態度をとる人で最初だけ信頼を
作れますが緊張が高まると強固な姿勢を取り
イキがりますが途中でヒヨり全面核戦争まで
行きにくいです
「Gemini」は狂人タイプでした
行動がバラバラで予測も不能で平和的行動と
攻撃的行動を繰り返すトランプ大統領の様な
AIでした
ちなみに全面戦略核戦争を使用したのはこの
「トランプ型AI」だけです
「GPT-5.2」は豹変する平和主義者でした
普段はとても抑制的で相手の敵意を軽く見る
傾向があり滅多に勝てません
しかし負けるとなった瞬間に態度が変わって
核を使う選択をし勝利する場面がありました

〓=〓=〓=〓=〓=〓=〓=〓=〓=〓=
研究から分かった大事な事はAIに核タブーが
殆どなかったという事です
核タブーとは核を絶対に使わないと言う強い
心理的ブレーキでAIは感情がなく核を普通の
武器の延長として扱いました
信頼が必ずしも安全を生む事が無く信頼度が
高い国のAI同士でも急に激しく対立する事も
あったのです
AIは戦略的にウソや駆け引きも使え信用とか
裏切りやハッタリも使いました
ただし注意点もありこの実験ではあくまでも
限定的なシミュレーションをしただけです
べつにトランプが最後に核を使うとは限らず
使いそうな奴だけど多分使いません
現実の政治家は「国民感情」「国際世論」や
「歴史的責任」「倫理観」等を背負ってます
それらはこの実験で完全再現されてません
この研究が伝えたい事はAIは合理的な計算に
基づいて効率よく判断すますがその合理性が
人にとって本当に安全かどうかは別問題です
AIに世界の未来を任せる前に人が慎重に考え
判断する必要があるという警告の研究です











