Grok ディープフェイク 英国調査:マスク氏の譲歩後も規制当局は追及を継続
英国政府がイーロン・マスク氏のxAIが展開するGrokのディープフェイク調査を継続。マスク氏の歩み寄りにもかかわらず、Ofcomは安全性への懸念から追及を強めています。AI規制の最前線を解説します。
譲歩はしましたが、追及の手は緩められません。ロイターの報道によると、英国政府はイーロン・マスク氏率いるxAIのAIモデル「Grok」が生成するディープフェイクに関する調査を、当初の予定通り継続する方針を固めました。マスク氏が一部の制限を導入したにもかかわらず、当局は根本的な安全性の懸念が解消されていないと判断したようです。
Grok ディープフェイク 英国調査 の背景と規制当局の視点
今回の問題の核心は、SNSプラットフォーム「X」上で提供されているAI、Grokの画像生成能力にあります。英国の規制当局であるOfcom(英国情報通信庁)は、有名人の虚偽画像や政治的な誤情報が拡散されるリスクを重く見ています。これに対し、xAI側は特定のキーワードに対するフィルターを強化するなどの対策を講じましたが、英国政府はこれを「不十分」と切り捨てました。
強まるAI安全性への圧力
英国は2023年に制定されたオンライン安全法に基づき、AI企業に対して厳格な透明性を求めています。調査の焦点は以下の3つのポイントに絞られています。
- 有害なコンテンツ生成を未然に防ぐ「ガードレール」の実効性
- ディープフェイクが民主的なプロセス(選挙など)に与える影響
- プラットフォーム側の管理責任と法的責任の所在
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
イーロン・マスク氏が4月に公開予定のX Moneyをめぐり、米上院議員が国家安全保障・消費者保護への懸念を表明。SNSが金融プラットフォームに変貌する意味を問う。
イーロン・マスクが掲げた「超人的能力」の夢。ニューラリンクの脳コンピューターインターフェースは今どこにあるのか。科学的現実と壮大な野望の間で何が起きているのかを読み解きます。
OpenAIとAnthropicが相次いでAIツールの公開を制限。サイバーセキュリティから銃撃事件まで、AI規制の最前線で何が起きているのか。日本社会への影響を多角的に考える。
カリフォルニア州でAI文字起こしツール「Abridge AI」が患者の同意なく医療会話を録音・処理したとして、SutterヘルスとMemorialCareが集団訴訟に直面。医療AIの普及が問う「インフォームド・コンセント」の新たな課題。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加