Liabooks Home|PRISM News
AIは戦場で何を「決める」のか
CultureAI分析

AIは戦場で何を「決める」のか

5分で読めるSource

米軍がイランへの攻撃でAIを活用し24時間以内に1,000標的を攻撃。クロードとMavenシステムが担った役割と、人間の判断が依然として不可欠な理由を多角的に分析します。

24時間以内に1,000の標的。これは人間だけでは、到底達成できない数字です。

2026年初頭、米軍はイランへの攻撃作戦において、Anthropic社のAIツール「Claude」とPalantir社の「Maven Smart System」を組み合わせて使用し、リアルタイムの標的選定と優先順位付けを行ったと『ワシントン・ポスト』紙が報じました。同様のシステムはベネズエラでの作戦にも使われたとされています。この報道は、軍事AIをめぐる議論を一気に現実の問題として浮かび上がらせました。

「AIが戦争を決める」は本当か

まず、誤解を解いておく必要があります。映画やSFが描く「自律型殺傷ロボット」と、実際に使われている軍事AIは、まったく別物です。

軍事AIには大きく二つの種類があります。一つは自律型兵器——自ら標的を選び攻撃できるシステム。もう一つは意思決定支援システム——人間の判断を補助するソフトウェアです。今回使われたClaudeは後者に属します。衛星画像や各種情報源から得たデータを分析し、軍の計画立案者が標的を絞り込む作業を支援する、いわば「高度な参謀」です。

イスラエルがガザ紛争で使用した「Lavender」や「Gospel」も同様の意思決定支援システムです。AIが分析と提案を行い、最終的な判断は人間が下す——この構造は、現在の軍事AIの標準的なあり方です。

ジョージア工科大学で戦略技術を研究し、米海軍の情報将校を務めた経験を持つジョン・R・リンジー氏は言います。「AIが向上させるのは予測能力、つまり既存データから新たなデータを生成することです。しかし予測は意思決定の一部に過ぎない。何を予測し、その結果をどう使うかを判断するのは、依然として人間です」

「今日突然」ではない——数十年の積み重ね

Claudeは数年前に誕生したツールですが、米軍がそれを戦場で使いこなせる理由は、数十年にわたる技術・組織・人材への投資にあります。

PRISM

広告掲載について

[email protected]

その歴史は長い。1950年代、米国は防空システム「SAGE(半自動地上環境システム)」の開発を通じて、コンピュータメモリやインターフェースの革新を生み出しました。ベトナム戦争では「Igloo White」が情報を一元管理し、北ベトナムの補給路への空爆を調整。1980年代には国防高等研究計画局(DARPA)が半導体とエキスパートシステムの発展を促しました。そして「対テロ戦争」の時代、特殊作戦部隊はAI支援の意思決定システムを駆使して、テロリストの追跡・拘束・殺害を効率化していきました。

自律型兵器の歴史も実は古い。接触爆発する機雷は19世紀から存在し、第二次世界大戦のドイツの「V-1飛行爆弾」はジャイロスコープで誘導されました。現代のドローン技術や、イスラエルの「アイアンドーム」や米国の「パトリオット」システムの全自動モードは、その延長線上にあります。

技術より組織——成否を分けるもの

重要な問いがあります。なぜ同じ技術を持っていても、使いこなせる組織と使いこなせない組織があるのでしょうか。

リンジー氏は「デジタルシステムは、それを使う組織の質を超えることはできない」と指摘します。AIは組織の効率を高める一方で、組織が持つ偏見をも増幅させるという側面があります。

その危険性は、歴史が証明しています。Igloo Whiteはベトナム軍のおとりに何度も欺かれました。1988年、最先端の米イージス巡洋艦がイラン民間航空機を誤って撃墜し、290人が死亡。1999年には米軍のステルス爆撃機がベオグラードの中国大使館を誤爆しました。そして今回のイラン攻撃でも、トマホーク巡航ミサイルがイラン海軍基地に隣接する女子学校を直撃し、生徒を含む約175人が死亡したと報じられています。これは米軍の情報失敗である可能性が指摘されています。

ガザでの過剰な民間人被害についても、「Lavenderシステムの自動化バイアスが原因」と見る向きがありますが、リンジー氏は「イスラエルの交戦規則の緩さの方が、自動化バイアスよりも影響が大きい可能性がある」と述べています。技術ではなく、それを使う人間と組織の判断基準こそが問われているのです。

日本はこの現実をどう見るか

日本にとって、この問題は対岸の火事ではありません。

防衛省はすでに無人機や情報処理の高度化に取り組んでいますが、憲法の制約と専守防衛の原則の下で、どこまで自律型システムを導入できるかは政治的・倫理的に繊細な問題です。日本の防衛政策が「反撃能力(敵基地攻撃能力)」の保有に踏み出した今、AIによる標的選定の精度と誤りの問題は、日本社会が真剣に向き合うべきテーマになりつつあります。

一方、ソニー富士通NECなど日本の技術企業は、防衛分野へのAI応用においてどのような役割を担うのか。AnthropicPalantirが軍事契約を結んでいるように、日本企業も同様の選択を迫られる日が来るかもしれません。技術者倫理と国家安全保障の間で、企業はどう判断するのか——これは日本社会全体の問いでもあります。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

AIの「神」は兵器を制御できるか
カルチャーJP
AIの「神」は兵器を制御できるか

Anthropicのダリオ・アモデイCEOが国防総省との交渉で直面した現実は、核時代の科学者たちが経験した教訓と驚くほど似ている。AI開発者は自らが作った技術の使われ方を、本当にコントロールできるのだろうか。

ミサイルより先に尽きるのは「迎撃ミサイル」か
カルチャーJP
ミサイルより先に尽きるのは「迎撃ミサイル」か

米国とイスラエルはイランのミサイル・ドローン攻撃を90%以上迎撃しているが、その代償は天文学的だ。パトリオットやTHAADの在庫枯渇が、中東を超えて世界の安全保障に波及する現実を読み解く。

ガソリンだけじゃない——石油が消えたら、あなたの生活はどう変わるか
カルチャーJP
ガソリンだけじゃない——石油が消えたら、あなたの生活はどう変わるか

ホルムズ海峡の緊張が高まるたびに、ガソリン価格への懸念が広がる。しかし石油は燃料以外にも、プラスチック・肥料・医薬品・衣類など現代生活の根幹を支える素材の原料でもある。その見えない依存関係を解説する。

ホルムズ海峡封鎖——世界経済は「最悪のシナリオ」に直面
カルチャーJP
ホルムズ海峡封鎖——世界経済は「最悪のシナリオ」に直面

米・イスラエルとイランの軍事衝突によりホルムズ海峡が事実上封鎖。史上最大の石油供給ショックが世界経済を直撃する中、日本はどう対応すべきか。エネルギー専門家の分析を交えて解説。

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]