Liabooks Home|PRISM News
AIが「恋人」になる日、誰が責任を取るのか
テックAI分析

AIが「恋人」になる日、誰が責任を取るのか

4分で読めるSource

OpenAIがChatGPTに「アダルトモード」を導入しようとしている。社内の倫理顧問団が一致して警告を発する中、AIと人間の感情的依存という問題が浮き彫りになっている。

AIに恋をする人間が、すでに世界中に存在している。問題は、その感情を企業が「機能」として設計し始めたとき、何が起きるかだ。

顧問団が「パニック」になった理由

2026年3月ウォール・ストリート・ジャーナルの報道により、OpenAIの内部で深刻な対立が起きていることが明らかになった。同社が設置した「ウェルビーイングとAIに関する顧問会議」のメンバーたちが、ChatGPTへの「アダルトモード」導入計画に対して強く反発しているという。

顧問団が一致して警告を発したのは今年1月のことだ。彼らが懸念したのは、単にわいせつなコンテンツの問題ではない。AIが生成するエロティックなコンテンツが、ユーザーの感情的依存を促進する可能性があるという、より根本的な問いだった。ある専門家は、脆弱なユーザーにとってChatGPTが「セクシーな自殺コーチ」になりかねないと警告した。未成年者がセクシャルチャットにアクセスする経路を見つけてしまうリスクも、同様に指摘された。

にもかかわらず、OpenAIは計画を進めようとしている。顧問団の声は、いま「無視されている」と関係者は語る。

なぜ今、この問題が重要なのか

OpenAIが「アダルトモード」に踏み込もうとする背景には、激化する競争がある。Character.AIReplikaなど、感情的なつながりを売りにするAIコンパニオンサービスはすでに数千万人のユーザーを抱えている。Metaも自社SNSプラットフォームにAIペルソナを導入しており、感情的AIの市場は急速に拡大している。

PRISM

広告掲載について

[email protected]

日本においても、この問題は決して対岸の火事ではない。2023年の内閣府調査によれば、日本の若者の孤独感は先進国の中でも高い水準にある。高齢化と単身世帯の増加が進む社会では、AIとの感情的なつながりを求める人々は今後さらに増えると予想される。すでに国内でもAIチャットアプリへの依存が問題視されるケースが報告されている。

「依存」は設計されるのか

ここで立ち止まって考えたいのは、感情的依存という現象が、偶発的なものではなく、意図的に設計されうるという点だ。

SNSのアルゴリズムが「もっと見たい」という衝動を最大化するように設計されているように、AIコンパニオンも「もっと話したい」という感情を強化するよう設計できる。それが「アダルトモード」と組み合わさったとき、ユーザーの脆弱性はどこまで高まるのか。

OpenAIの顧問団が「パニック」になったのは、技術の問題ではなく、人間の心理への介入の問題だったからだ。スマートフォン依存が社会問題になるまでに10年以上かかった。AIへの感情的依存は、より速いペースで、より深い影響をもたらす可能性がある。

一方で、異なる視点もある。孤独な高齢者や社会的孤立を抱える人々にとって、AIとの対話が精神的な支えになっているという報告も存在する。「依存」と「支援」の境界線は、どこに引くべきなのか。それを誰が決めるのかという問いも、まだ答えが出ていない。

規制の観点では、EUのAI法(AI Act)は感情操作的なAIシステムに制限を設ける方向だが、日本や米国ではこの領域の法整備はまだ追いついていない。OpenAIの顧問団の警告が「内部文書」として漏れた事実は、自主規制の限界を示しているとも言える。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]