Grok ディープフェイク 英国調査:マスク氏の譲歩後も規制当局は追及を継続
英国政府がイーロン・マスク氏のxAIが展開するGrokのディープフェイク調査を継続。マスク氏の歩み寄りにもかかわらず、Ofcomは安全性への懸念から追及を強めています。AI規制の最前線を解説します。
譲歩はしましたが、追及の手は緩められません。ロイターの報道によると、英国政府はイーロン・マスク氏率いるxAIのAIモデル「Grok」が生成するディープフェイクに関する調査を、当初の予定通り継続する方針を固めました。マスク氏が一部の制限を導入したにもかかわらず、当局は根本的な安全性の懸念が解消されていないと判断したようです。
Grok ディープフェイク 英国調査 の背景と規制当局の視点
今回の問題の核心は、SNSプラットフォーム「X」上で提供されているAI、Grokの画像生成能力にあります。英国の規制当局であるOfcom(英国情報通信庁)は、有名人の虚偽画像や政治的な誤情報が拡散されるリスクを重く見ています。これに対し、xAI側は特定のキーワードに対するフィルターを強化するなどの対策を講じましたが、英国政府はこれを「不十分」と切り捨てました。
強まるAI安全性への圧力
英国は2023年に制定されたオンライン安全法に基づき、AI企業に対して厳格な透明性を求めています。調査の焦点は以下の3つのポイントに絞られています。
- 有害なコンテンツ生成を未然に防ぐ「ガードレール」の実効性
- ディープフェイクが民主的なプロセス(選挙など)に与える影響
- プラットフォーム側の管理責任と法的責任の所在
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
イーロン・マスク氏がOpenAIとMicrosoftに対し、最大1,340億ドルの損害賠償を求める通知を提出。初期の貢献が価値の75%を占めると主張する算定根拠を詳しく解説します。
RazerがCES 2026で6億ドル規模のAI投資計画を発表。ホログラムAI『Project Ava』やヘッドセット『Project Motoko』の真相、xAIのGrok採用に伴う倫理的議論までを Chief Editor が分析。Razer AI investment 2026 の全貌を解説します。
イーロン・マスク率いるxAIのチャットボット「Grok」は、なぜわずか2ヶ月のトレーニングで誕生したのか?xAI Grok 開発の背景にあるアンチWoke思想と、驚異的な開発スピードに迫ります。
イーロン・マスク氏がOpenAIとMicrosoftに対し、不当な利益を得たとして1,340億ドルの賠償を求める訴訟を起こしました。非営利から営利への転換をめぐる法的対立の核心に迫ります。