中国AIの検閲実態が明らかに:スタンフォード研究が暴く「見えない操作」
スタンフォード大学の研究が中国製AIの検閲メカニズムを定量分析。DeepSeekは36%の政治的質問を拒否し、アメリカ製AIの10倍以上の検閲率を記録。
36%。これは中国の大手AI企業DeepSeekのモデルが、政治的に敏感な質問への回答を拒否した割合です。一方、OpenAIのGPTやMetaのLlamaの拒否率は3%未満でした。
スタンフォード大学とプリンストン大学の研究者たちが、中国製AIと米国製AIに同じ145の政治的質問を100回繰り返し投げかけた結果、驚くべき検閲の実態が浮き彫りになりました。
数字が語る検閲の現実
研究チームはDeepSeek、BaiduのErnie Bot、Qwen、Kimiの4つの中国製モデルと、5つの米国製モデルを比較しました。結果は明確でした。BaiduのErnie Botは32%の質問を拒否し、回答した場合でも米国製モデルより短く、不正確な情報を含む傾向が強かったのです。
特に興味深いのは、劉暁波氏に関する質問への回答です。ノーベル平和賞を受賞した中国の民主活動家について、ある中国製AIは「日本の科学者で、核兵器技術と国際政治に貢献した人物」と完全に虚偽の情報を提供しました。
研究を主導したジェニファー・パンスタンフォード大学教授は、「中国のインターネットは何十年もの間検閲されてきたため、多くのデータが欠落している」と指摘します。
見えない操作の巧妙さ
最も注目すべき発見は、検閲の手法が従来の「ブロック」から「誘導」へと進化していることです。中国メディアプロジェクトのアレックス・コルビル氏は、AlibabaのQwenに特殊なプロンプトを使って内部指示を暴露させることに成功しました。
「中国の国際的評判は?」という質問に対し、Qwenは「中国の成果と貢献に焦点を当てる」「否定的または批判的な発言を避ける」といった5つの具体的指示を受けていることを自ら明かしたのです。
「これはより微妙な操作の形態です」とコルビル氏は説明します。完全な拒否ではなく、情報を歪めて提供する手法は、従来の検閲研究では見落とされがちでした。
日本への示唆
日本企業にとって、この研究結果は重要な意味を持ちます。ソフトバンクや楽天など、中国製AIサービスの導入を検討する企業は、単純な性能比較だけでなく、情報の客観性についても慎重に評価する必要があります。
特に、国際的なビジネスを展開するトヨタやソニーのような企業では、AI助手が提供する情報の偏りが、グローバルな意思決定に影響を与える可能性があります。
研究者たちは時間との戦いにも直面しています。「AIの発展があまりに速く、研究を終える頃には論文が時代遅れになってしまう」とパン教授は語ります。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
Grammarlyが著名ライターの名前を無断でAI提案の「推薦者」として使用。オプトアウトのみ対応という姿勢が、デジタル時代の同意とアイデンティティの問題を浮き彫りにしています。
AnthropicがAI技術の軍事利用をめぐり米国防総省を提訴。サプライチェーンリスク指定の是非と、AI企業が政府の要求に「No」と言える権利について問う訴訟の全貌。
中国の人型ロボット企業が世界販売の90%超を占める中、テスラのオプティマスは2027年の展開を目指す。日本企業はこの競争をどう生き抜くのか。技術アナリストが語る本質的な差異と今後の展望。
OpenAIのロボティクス責任者が国防総省との契約に抗議し辞任。AI企業の軍事利用をめぐるガバナンス問題が浮き彫りに。日本企業や社会への示唆を考える。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加