Liabooks Home|PRISM News
AIは機密情報を「学習」できるか――ペンタゴンの賭け
テックAI分析

AIは機密情報を「学習」できるか――ペンタゴンの賭け

4分で読めるSource

米国防総省が生成AIに機密データを学習させる計画を進めている。AnthropicやOpenAIなどのAI企業が軍事機密に触れる時代、セキュリティと技術革新のジレンマをPRISMが読み解く。

AIに「秘密」を教えたとき、その秘密はどこへ行くのか。

米国防総省(ペンタゴン)が、生成AI企業に対して軍事機密データを学習させる計画を進めていることが、MIT Technology Reviewの取材で明らかになりました。単にAIを機密環境で「使う」のではなく、機密情報そのものをモデルに「覚えさせる」という、これまでとは次元の異なる動きです。

何が起きているのか

ペンタゴンはすでに、AnthropicClaudeなどの生成AIモデルを機密環境で活用しています。イランの攻撃目標を分析する用途での使用も確認されています。しかし今回計画されているのは、それをはるかに超えた取り組みです。

具体的には、AI企業が軍事専用バージョンのモデルを開発できるよう、機密データへのアクセスが可能なセキュアな学習環境を国防総省が整備するというものです。監視報告書や戦場評価といった高度に機密性の高い情報が、モデルのパラメータそのものに埋め込まれることになります。

これは単なる「AIツールの導入」ではありません。機密情報がモデルの「思考回路」の一部となる、構造的な変化です。

なぜ今、これが問題なのか

タイミングは偶然ではありません。DeepSeekの登場で中国のAI開発能力が世界に示され、米中の技術覇権争いが新たな局面を迎えた今、米軍は「AIの軍事的優位性」を急いで確立しようとしています。

同時に、別の動きも起きています。米政府高官の一部は「Anthropicは戦闘システムを任せられない」と主張し、同社を政府機関から排除しようとしているとも報じられています。一方でOpenAIはこの隙に商機を見出しているとされ、AI企業間の軍事契約をめぐる競争が水面下で激化しています。

PRISM

広告掲載について

[email protected]

つまりペンタゴンは、AI企業を「信頼できるパートナー」として機密の核心に引き込もうとしながら、同時にそのAI企業を「信頼できるか」という問いと向き合っているわけです。

日本にとっての意味

この動きは、日本にとっても対岸の火事ではありません。

日本は現在、防衛費の増強と技術的な防衛力強化を進めており、AIの軍事利用についても議論が始まっています。米国が民間AI企業と軍の連携モデルを確立した場合、日米同盟の文脈で日本も類似の枠組みへの参加を求められる可能性があります。

富士通NECNTTといった日本の大手IT企業は、防衛省との取引実績を持っています。しかし機密データを民間AIモデルに学習させるという発想は、日本の法的・文化的な文脈では大きな摩擦を生むでしょう。情報管理の厳格さを重んじる日本の官僚文化と、「データで学習する」AIの性質は、根本的な緊張関係をはらんでいます。

さらに、労働力不足という日本固有の課題も絡んできます。自衛隊の人員確保が困難になる中、AIによる情報分析・意思決定支援への需要は高まる一方です。しかしそのAIに何を学ばせるか、誰が管理するかという問いは、技術論ではなく安全保障の根幹に触れます。

セキュリティのジレンマ

機密データで学習したAIモデルが抱えるリスクは、従来のデータ漏洩とは性質が異なります。

通常の機密情報漏洩は「ファイルが盗まれる」という形をとります。しかしモデルに埋め込まれた機密情報は、適切な質問を通じて「引き出される」可能性があります。モデルの重みパラメータを解析することで情報を復元する研究も進んでいます。セキュアな学習環境を構築しても、完成したモデルをどう管理するかという問題は残ります。

Anthropicが信頼できないとする見方がある一方で、では誰が信頼できるのかという問いに、現時点で明確な答えはありません。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]