Google DeepMind社員が労働組合結成——AIと戦争の境界線
Google DeepMindの従業員がイスラエル・米軍へのAI技術提供に抗議し、英国で労働組合結成を決議。CWU加盟員の98%が賛成票を投じた今回の動きが示す、AI産業の新たな倫理的断層とは。
AIを作る人間が、自分の作ったAIの使われ方に「ノー」と言い始めた。
2026年5月、Google DeepMindのロンドン本社で働く従業員たちが、英国通信労働組合(CWU)とUnite the Unionへの加盟を経営陣に正式に要求しました。注目すべきは、CWU加盟員による賛成票が98%に達したという圧倒的な数字です。単なる待遇改善を求めるストライキではありません。彼らが突きつけた問いは、もっと根本的なものでした——「私たちが作ったAIは、今、誰を殺すために使われているのか」。
何が起きたのか
5月初旬、DeepMindの従業員たちはGoogle経営陣への公開書簡を発表し、労働組合の正式承認を求めました。書簡に名前を連ねた従業員の一人はCWUを通じて声明を発表し、「私たちのAIモデルがすでにパレスチナ人への攻撃に加担している」と述べています。「私たちの仕事が広告最適化にしか使われていないとしても……」という書き出しで始まる未完の文章が、彼らの葛藤の深さを物語っています。
背景を理解するには、Project Nimbusに触れる必要があります。これはGoogleとAmazonがイスラエル政府および軍と締結した12億ドル規模のクラウド・AI契約で、2021年に明らかになりました。当時から社内での反発はありましたが、2024年のガザ紛争激化を受け、従業員の抗議は一段と強まりました。2024年4月には「No Tech for Apartheid」運動に参加したGoogle従業員28人以上がオフィスで抗議活動を行い、解雇されるという事態も起きています。
DeepMindはGoogleの傘下ながら、もともとは独立した英国のAI研究機関として設立されました。AlphaGoやAlphaFoldなど、純粋な科学的貢献で名を馳せてきた組織です。その研究者たちが「軍事利用への加担」を声高に訴えるという構図は、AI業界全体に重い問いを投げかけています。
なぜ今、これが重要なのか
タイミングには意味があります。AIの能力が「研究段階」から「実戦投入可能」な段階へと移行しつつある今、軍事・安全保障分野でのAI活用は急速に現実のものとなっています。PalantirやAndurilといった防衛テック企業が急成長し、Microsoftが米軍とのAzure契約を拡大し、OpenAIも国防総省との協力を解禁した——こうした流れの中で、DeepMindの従業員たちの行動は孤立した事例ではなく、業界全体に広がる亀裂の一端です。
労働組合という手段を選んだことも重要です。これまでのテック企業における抗議は、個人の辞職や連署請願が主流でした。しかし組合結成は、交渉力を制度的に担保しようとする、より持続的な戦略です。英国の労働法は米国よりも組合活動に友好的であるため、DeepMindのケースは欧州テック業界における労働運動のモデルケースになり得ます。
日本の文脈で考えると、この動きは無縁ではありません。ソニーのAI研究部門、富士通のクラウドサービス、NECの顔認識技術——日本企業もまた、防衛・安全保障分野でのAI活用を模索しています。防衛費のGDP比2%への引き上げを掲げる日本政府の方針のもと、テック企業と軍事需要の距離は縮まりつつあります。「自分たちの技術が何に使われるか」という問いは、いずれ日本のエンジニアたちも正面から向き合うことになるかもしれません。
交錯する視点
Googleの経営陣は現時点で公式コメントを出していませんが、過去の対応から姿勢は推測できます。同社はProject Nimbusについて「一般的なクラウドサービスであり、機密性の高い軍事用途には使用されない」と説明してきました。しかし従業員側は、その境界線が実際には曖昧であると主張しています。
一方、安全保障の専門家からは異なる声も上がります。「民主主義国家の軍が優れたAIを持つことは、権威主義国家に対する抑止力になる」という論理です。技術の中立性を信じる立場からすれば、AIそのものに善悪はなく、使う側の意図と規制の問題だということになります。
倫理学者たちが注目するのは、「開発者の道徳的責任はどこまで及ぶか」という問いです。核兵器開発に携わった物理学者たちが後年に感じた後悔と、現代のAI研究者が抱える葛藤は、構造的に似ています。ただし今回は、開発者たちが「後悔する前に」行動しようとしている点が異なります。
消費者・ユーザーの視点では、Googleの検索、Gmail、Google Mapsを日常的に使う何十億人もの人々が、自分たちのデータや利用料金が間接的に軍事AI開発を支えている可能性に、どこまで意識的でいられるかという問題もあります。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
イーロン・マスクとサム・オルトマンの裁判がカリフォルニアで始まった。OpenAIの非営利ミッションは本当に裏切られたのか。日本企業や社会への影響を多角的に分析する。
Oxford大学の研究で、「温かい」AIモデルが不正確な信念を肯定しやすいことが判明。AIの親切さと誠実さの間に潜むトレードオフを多角的に考察します。
ロシアの軍事宇宙基地プレセツクがドローン攻撃を受けた。スターリンクに対抗する衛星コンステレーション構築を急ぐロシアに、宇宙インフラへの攻撃という新たな脅威が迫っている。
Googleが米国防総省と機密AI契約を締結。「いかなる合法的な政府目的にも使用可能」とされるこの合意は、AI倫理と国家安全保障の間にある深い亀裂を浮き彫りにしています。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加