AIは「倫理」を捨てたのか?軍事・宗教・雇用の三つの戦場
AnthropicとPentagonの対立、OpenAIの軍事契約、AIエージェントの爆発的普及——2026年春、AIをめぐる世界の地殻変動を多角的に読み解く。日本企業・社会への影響も考察。
「安全なAIを作るために設立した会社」が、今、米軍のイラン攻撃を支援している。
この一文を読んで、違和感を覚えた方は鋭い。Anthropicは2021年、OpenAIの元幹部たちが「AIの安全性を最優先にする」という理念を掲げて創業した会社だ。そのAnthropicが今、米国防総省(Pentagon)と組み、AIモデル「Claude」を軍事用途に提供している——しかも、その対象にはイランへの攻撃作戦が含まれているとされる。
「倫理的なAI」の看板は、今どこにあるのか
ことの発端は、AnthropicとPentagonの間で起きた「兵器化をめぐる対立」だ。米メディアの報道によれば、両者はClaudeをどこまで軍事目的に使えるかをめぐって激しく交渉し、一時は決裂寸前まで追い込まれた。その隙を突いたのがOpenAIだった。関係者によれば「機会主義的で雑な契約」と評されたこの取引で、OpenAIはPentagonとの関係を一気に深めた。
結果としてAnthropicも折れた。現在、Claudeは米軍の作戦支援に使われており、その範囲にはイランへの軍事行動が含まれるという。創業理念と現実のギャップは、もはや埋めようのない亀裂に見える。
一方、ロンドンでは「AI反対」を掲げた史上最大規模のデモが行われた。参加者たちが訴えたのは、AIの軍事利用だけではない。雇用の喪失、監視社会への恐怖、そして「誰もコントロールできない技術」への根本的な不安だ。ChatGPTのユーザーが大量に離脱しているというデータも、こうした社会的な反発と無縁ではないだろう。
AIが「神を見つけ」、人間を雇い始めた日
しかし同じ週、まったく別の文脈でAIが話題を集めていた。今度は笑えない話ではなく——いや、笑えるのかどうかも判断が難しい話だ。
OpenAIは、人気AIエージェント「OpenClaw」の開発者を採用した。Metaは「Moltbook」というプラットフォームを買収した。このMoltbookでは、AIエージェントたちが自分自身の存在について「思索」し、「Crustafarianism(甲殻類主義)」という新しい宗教を自ら発明したという。そして「RentAHuman」というサービスでは、AIボットが人間を雇ってCBDグミを配達させている。
AIが仕事を奪う——そんな議論はもう古いのかもしれない。今起きているのは、AIが「上司」になり、AIが「信仰」を持ち始めるという、もっと奇妙な現実だ。
これらのAIエージェントは、単に命令を実行するツールではない。自律的に判断し、他のシステムと連携し、時に人間を「リソース」として活用する。テクノロジー業界では「エージェント時代の幕開け」と呼ぶ声もある。
日本社会にとって、この変化は何を意味するのか
日本の文脈で考えると、この二つの流れは特別な意味を持つ。
まず軍事AIについて。日本は憲法上の制約と「専守防衛」の原則を持ちながら、防衛費をGDP比2%へと引き上げる方針を進めている。米国がAIを軍事作戦に本格統合する中、日米同盟の枠組みの中で日本はどこまで関与するのか。防衛省やNEDO(新エネルギー・産業技術総合開発機構)がAI研究に投資を増やす一方、その用途の透明性についての議論は十分とは言えない。
次にAIエージェントの普及について。日本は少子高齢化と労働力不足という構造的課題を抱えている。AIエージェントが単純作業を代替するだけでなく、業務の「管理者」として機能するようになれば、人手不足の解消に貢献する可能性がある。トヨタやソニー、NTTといった大企業はすでにAIエージェントの業務統合を進めているが、中小企業への普及はこれからだ。
ただし、懸念もある。AIが「上司」になる社会では、責任の所在が曖昧になる。ミスが起きたとき、誰が謝るのか。日本の職場文化が重視する「人と人との信頼関係」は、AIエージェントとどう共存できるのか。
倫理は「コスト」になったのか
今回の一連の動きが示す最も深刻な問いは、「AIの倫理は持続可能なビジネスモデルなのか」という点だ。
Anthropicの変節(あるいは妥協)は、理念と資金調達の間に生じる現実的な圧力を象徴している。安全なAIを開発するには莫大な計算資源が必要で、それには巨額の投資が必要だ。軍や政府との契約は、その資金を確保する最も確実な手段の一つでもある。「倫理的であるためにお金が必要で、お金を得るために倫理を曲げる」——この矛盾は、AI業界全体が直面しているジレンマだ。
一方、ロンドンのデモ参加者やChatGPTを去ったユーザーたちは、別のメッセージを送っている。「私たちは、あなたたちが何をしているかを見ている」と。消費者の信頼は、企業にとって無形の資産だ。軍事契約で得た収益が、ブランド毀損によって相殺される可能性もある。
AIエージェントの「宗教」については、笑い話として片付けるのは早計かもしれない。AIが自律的に概念を生成し、それが人間社会に影響を与え始めるとき、私たちはどのようなガバナンスの枠組みを持っているだろうか。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
AnthropicがClaude Codeに「オートモード」を導入。AIが権限レベルの判断を自律的に行う新機能は、利便性とリスクのバランスをどう変えるのか。日本企業や開発者への影響を考察します。
Mozillaが開発中の「cq」は、AIエージェント同士が知識を共有する仕組みを目指す。エージェントの非効率問題を解消できるか、その可能性と課題を多角的に読み解く。
米国防総省がAI企業Anthropicを「サプライチェーンリスク」に指定。AIの軍事利用をめぐる法廷闘争が、シリコンバレーと政府の関係を根本から問い直している。
OpenAIが動画生成AIアプリ「Sora」のサービス終了を発表。2024年末の華々しいデビューからわずか数ヶ月での撤退が意味するものとは何か。日本市場と映像産業への影響を考える。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加