Liabooks Home|PRISM News
AIは「倫理」を捨てたのか?軍事・宗教・雇用の三つの戦場
テックAI分析

AIは「倫理」を捨てたのか?軍事・宗教・雇用の三つの戦場

5分で読めるSource

AnthropicとPentagonの対立、OpenAIの軍事契約、AIエージェントの爆発的普及——2026年春、AIをめぐる世界の地殻変動を多角的に読み解く。日本企業・社会への影響も考察。

「安全なAIを作るために設立した会社」が、今、米軍のイラン攻撃を支援している。

この一文を読んで、違和感を覚えた方は鋭い。Anthropicは2021年、OpenAIの元幹部たちが「AIの安全性を最優先にする」という理念を掲げて創業した会社だ。そのAnthropicが今、米国防総省(Pentagon)と組み、AIモデル「Claude」を軍事用途に提供している——しかも、その対象にはイランへの攻撃作戦が含まれているとされる。

「倫理的なAI」の看板は、今どこにあるのか

ことの発端は、AnthropicとPentagonの間で起きた「兵器化をめぐる対立」だ。米メディアの報道によれば、両者はClaudeをどこまで軍事目的に使えるかをめぐって激しく交渉し、一時は決裂寸前まで追い込まれた。その隙を突いたのがOpenAIだった。関係者によれば「機会主義的で雑な契約」と評されたこの取引で、OpenAIはPentagonとの関係を一気に深めた。

結果としてAnthropicも折れた。現在、Claudeは米軍の作戦支援に使われており、その範囲にはイランへの軍事行動が含まれるという。創業理念と現実のギャップは、もはや埋めようのない亀裂に見える。

一方、ロンドンでは「AI反対」を掲げた史上最大規模のデモが行われた。参加者たちが訴えたのは、AIの軍事利用だけではない。雇用の喪失、監視社会への恐怖、そして「誰もコントロールできない技術」への根本的な不安だ。ChatGPTのユーザーが大量に離脱しているというデータも、こうした社会的な反発と無縁ではないだろう。

AIが「神を見つけ」、人間を雇い始めた日

しかし同じ週、まったく別の文脈でAIが話題を集めていた。今度は笑えない話ではなく——いや、笑えるのかどうかも判断が難しい話だ。

OpenAIは、人気AIエージェント「OpenClaw」の開発者を採用した。Metaは「Moltbook」というプラットフォームを買収した。このMoltbookでは、AIエージェントたちが自分自身の存在について「思索」し、「Crustafarianism(甲殻類主義)」という新しい宗教を自ら発明したという。そして「RentAHuman」というサービスでは、AIボットが人間を雇ってCBDグミを配達させている。

PRISM

広告掲載について

[email protected]

AIが仕事を奪う——そんな議論はもう古いのかもしれない。今起きているのは、AIが「上司」になり、AIが「信仰」を持ち始めるという、もっと奇妙な現実だ。

これらのAIエージェントは、単に命令を実行するツールではない。自律的に判断し、他のシステムと連携し、時に人間を「リソース」として活用する。テクノロジー業界では「エージェント時代の幕開け」と呼ぶ声もある。

日本社会にとって、この変化は何を意味するのか

日本の文脈で考えると、この二つの流れは特別な意味を持つ。

まず軍事AIについて。日本は憲法上の制約と「専守防衛」の原則を持ちながら、防衛費をGDP比2%へと引き上げる方針を進めている。米国がAIを軍事作戦に本格統合する中、日米同盟の枠組みの中で日本はどこまで関与するのか。防衛省NEDO(新エネルギー・産業技術総合開発機構)がAI研究に投資を増やす一方、その用途の透明性についての議論は十分とは言えない。

次にAIエージェントの普及について。日本は少子高齢化労働力不足という構造的課題を抱えている。AIエージェントが単純作業を代替するだけでなく、業務の「管理者」として機能するようになれば、人手不足の解消に貢献する可能性がある。トヨタソニーNTTといった大企業はすでにAIエージェントの業務統合を進めているが、中小企業への普及はこれからだ。

ただし、懸念もある。AIが「上司」になる社会では、責任の所在が曖昧になる。ミスが起きたとき、誰が謝るのか。日本の職場文化が重視する「人と人との信頼関係」は、AIエージェントとどう共存できるのか。

倫理は「コスト」になったのか

今回の一連の動きが示す最も深刻な問いは、「AIの倫理は持続可能なビジネスモデルなのか」という点だ。

Anthropicの変節(あるいは妥協)は、理念と資金調達の間に生じる現実的な圧力を象徴している。安全なAIを開発するには莫大な計算資源が必要で、それには巨額の投資が必要だ。軍や政府との契約は、その資金を確保する最も確実な手段の一つでもある。「倫理的であるためにお金が必要で、お金を得るために倫理を曲げる」——この矛盾は、AI業界全体が直面しているジレンマだ。

一方、ロンドンのデモ参加者やChatGPTを去ったユーザーたちは、別のメッセージを送っている。「私たちは、あなたたちが何をしているかを見ている」と。消費者の信頼は、企業にとって無形の資産だ。軍事契約で得た収益が、ブランド毀損によって相殺される可能性もある。

AIエージェントの「宗教」については、笑い話として片付けるのは早計かもしれない。AIが自律的に概念を生成し、それが人間社会に影響を与え始めるとき、私たちはどのようなガバナンスの枠組みを持っているだろうか。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]