AIが書き換える「戦場の真実」—誰が歴史を定義するのか
米国・イスラエルとイランの紛争でAIが標的識別や偽情報拡散に使われた。AI生成コンテンツが氾濫する時代、真実を見極める力はどこにあるのか。政策立案者・技術リーダー必読。
バージュ・ハリファが炎上している映像が、数百万人のスマートフォンに届いた。だが、それは存在しない火災だった。
2026年4月、米国・イスラエルとイランの間で行われた軍事衝突において、AIは二つの顔を見せた。一つは戦場で標的を識別し、攻撃速度を上げ、兵器使用の推奨を行う「軍事ツール」としての顔。もう一つは、テルアビブの街頭にミサイルが着弾する偽映像や、存在しない火災のフェイク動画を生成・拡散する「情報操作ツール」としての顔だ。
この二つは、一見別々の問題に見える。しかしAIガバナンス・グローバルセンターのCEO、レイチェル・アダムス氏は、それらを貫く一本の糸を指摘する。「真実が争われ、不確かになったとき、最も強い制度的権力を持つ者—プラットフォーム、特定の国家、特定の軍—が、自分たちの版の出来事を主張するうえで有利な立場に立つ」
戦場に広がる「感情工学」
アダムス氏が特に強調するのは、AI生成コンテンツが単なる「嘘」ではなく、感情を設計する道具になっているという点だ。恐怖、勝利感、無力感——こうした感情を意図的に呼び起こすよう設計されたコンテンツが、紛争地帯の内外に流れ込んでいる。
問題は、それが娯楽の話ではないことだ。紛争地域の民間人は、「どこへ避難すればいいか」「援助はどこで受け取れるか」をリアルタイムで判断しなければならない。偽情報が避難ルートや支援拠点に関する情報に紛れ込めば、それは文字通り生死に関わる。アダムス氏は「これは生死の問題であり、偽情報が避難場所や援助に関して流通すれば、はるかに深刻な事態になる」と述べている。
さらに注目すべきは、偽情報の手法の多様化だ。精巧なディープフェイクばかりではない。他の紛争から流用した古い映像に、AIがラベルを貼り替えて「新たな映像」として拡散するケースも急増している。技術の敷居が下がったことで、プロパガンダの「製造コスト」は劇的に低下した。
誰が真実を書くのか——格差という視点
アダムス氏の問題意識の核心は、技術の問題ではなく権力の問題にある。
グローバルサウスの多くの国々は、歴史的に情報操作に対して脆弱だった。メディアのエコシステムが弱く、外部による「語り直し」にさらされてきた。植民地主義の時代から続く、「誰が歴史を書くか」という問いだ。AIはその構造を解体するどころか、むしろ強化しかねない。なぜなら、AIによる「書き換え」は著者を不可視にするからだ。誰が書いたかわからないまま、書き換えは進む。
責任の所在という点では、アダムス氏は二つのアクターを名指しする。一つはOpenAIやAnthropicのようなフロンティアモデル開発企業。コンテンツがどこで、どのように生成されたかを追跡できる「トレーサビリティ」を構築する責任がある。もう一つはプラットフォーム企業。「バイラルコンテンツから利益を得ないという責任がある」とアダムス氏は言い切る。
特に深刻なのは、コンテンツモデレーションの地域格差だ。英語圏以外、とりわけ多言語・多方言が混在する地域では、AIによる有害コンテンツの検出精度が著しく低い。プラットフォーム企業はこれらの地域に十分な人的リソースを割いてこなかった。この「モデレーションの空白」は、紛争地帯と重なることが多い。
日本社会への問い
日本にとって、この問題は遠い話ではない。
ソニーや富士通をはじめとする日本企業は、グローバルなAIサプライチェーンの重要な担い手だ。また、日本は高齢化社会という文脈で、デジタルリテラシーの格差が特に大きい国の一つでもある。高齢者がSNSで拡散された偽情報を真実と誤認するリスクは、紛争地域の話だけではない。
加えて、日本政府は2025年のAI安全サミット以降、AIガバナンスの国際的な枠組み作りに積極的に関与してきた。しかし、軍事利用と偽情報という「二重の脅威」に対して、国内の法整備や企業への規制はまだ追いついていない。
アダムス氏は、西側のAIモデルを「ゲートキーパー」にすることへの懸念も表明している。「シリコンバレーの少数の白人男性が、世界で最も強力な技術に関する意思決定を行っている」という現実は、日本を含むアジア諸国にとっても他人事ではない。オープンソース技術の普及が公平性を高めるという議論がある一方で、それが悪意ある利用の敷居を下げるという反論も根強い。
個人にできること——専門家のアドバイス
アダムス氏は、AIを使ってAI生成コンテンツを検証することには懐疑的だ。代わりに、文脈・出所・認証による検証を推奨する。具体的には以下のような点に注意するとよい。
映像内のテキストや紋章が不自然に見える場合、照明や反射が不自然な場合、フレームの端で奇妙な動きがある場合は疑ってかかること。「○月○日、○○の建物で撮影」といった具体的な主張が含まれていれば、独立して検証できるかを確認する。スクリーンショット形式の「公式声明」は特に慎重に扱うべきで、転送を繰り返した情報ほど注意が必要だ。感情的に過剰な演出や効果音が使われているコンテンツ、匿名・低履歴・偏向的なアカウントから最初に発信されたコンテンツ、著者不明の新しいウェブサイトのコンテンツには警戒を要する。信頼できるファクトチェッカーや記者がすでに検証しているかどうかも確認することが重要だ。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
AnthropicのサイバーセキュリティAI「Mythos」が、公開当日に不正アクセスされたと報告。第三者ベンダー経由の流出が示す、AI管理体制の盲点とは。
MIT Technology ReviewがEmTech AI会議で発表した2026年のAI重要トレンド10選。LLMによる大規模監視、AIの倦怠感など、私たちの社会と産業を変える動きを多角的に読み解く。
SpaceXがAIコーディングツール「Cursor」を約6兆円で買収または100億ドルの手数料を支払う異例の契約を発表。xAI、OpenAI、Googleが繰り広げるAIコーディング覇権争いの意味を読み解く。
Metaが従業員のキーストロークやマウス操作をAI学習データとして収集する計画を発表。職場プライバシーの境界線はどこにあるのか。日本企業への影響も含めて考える。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加