AIは子どもを見分けられるか?年齢認証の新戦場
OpenAIが自動年齢予測を導入、プライバシーと子どもの安全の間で揺れる米国。日本企業にも迫る選択とは?
1800万人の子どもがいる米国で、AIチャットボットとの会話が原因とされる自殺や自傷行為の訴訟が相次いでいます。この深刻な現実を受けて、テック企業は今、これまで避けてきた難題と向き合わざるを得なくなりました。ユーザーが本当に子どもなのか、どうやって見分けるのか?
OpenAIの新たな挑戦
OpenAIは先週、自動年齢予測システムの導入を発表しました。このシステムは、会話の時間帯やその他の要因を分析して、ユーザーが18歳未満かどうかを予測します。子どもや10代と判定されたユーザーには、暴力的な内容や性的なロールプレイなどへの「露出を減らす」フィルターが適用されます。
YouTubeも昨年、同様のシステムを導入しています。一見すると、プライバシーを保護しながら年齢認証を行う理想的な解決策に見えるかもしれません。
しかし、完璧ではないシステムには落とし穴があります。大人が子どもに分類されたり、その逆が起こったりする可能性があるのです。誤って18歳未満と判定された人は、Personaという会社にセルフィーや政府発行のIDを提出して身元確認を行う必要があります。
プライバシーの代償
サイバーいじめ研究センターの共同ディレクターであるサミール・ヒンドゥジャ氏は、この仕組みの脆弱性を指摘します。「Personaが数百万の政府発行IDと大量の生体認証データを保持することになる。これらが漏洩すれば、大規模な人口が一度に危険にさらされる」
セルフィー認証にも問題があります。有色人種や特定の障害を持つ人々で、認証の失敗率が高くなる傾向があるのです。
ヒンドゥジャ氏は代替案として、デバイスレベルでの認証を提案しています。親が子どもの携帯電話を初めて設定する際に年齢を指定し、その情報をデバイスに保存してアプリやウェブサイトと安全に共有するという方法です。
企業間の責任押し付け合い
興味深いことに、AppleのCEOティム・クック氏も最近、米国の議員に対してデバイスレベルでの認証を求めるロビー活動を行いました。これは、アプリストアに年齢認証を義務付ける法案に対抗する動きでした。アプリストア側に責任を負わせることで、Appleに大きな法的責任が生じることを避けたかったのです。
年齢認証が必要かどうかの議論は終わり、今度は「誰が責任を負うのか」という新たな戦場に移っています。この責任は、どの企業も引き受けたくない「燃えるポテト」のような存在になっているのです。
政治的な分断
水曜日、連邦取引委員会(FTC)が年齢認証に関する終日ワークショップを開催します。Appleの政府渉外担当ニック・ロッシ氏をはじめ、GoogleやMetaの子どもの安全担当幹部、さらには子ども向けマーケティング専門企業の代表者も参加予定です。
共和党州は、ポルノサイトに年齢認証を義務付ける法律を支持していますが、批判者はこれが性教育を含むより幅広いコンテンツをブロックするために使用される可能性があると警告しています。一方、カリフォルニア州などは、チャットボットと会話する子どもを保護するためにAI企業に年齢認証を要求する法律を制定しています。
日本への影響
日本企業にとって、この動きは他人事ではありません。ソニーのエンターテインメント事業、任天堂のオンラインサービス、LINEのAIアシスタントなど、多くの日本企業が米国市場で子ども向けサービスを提供しています。
日本では個人情報保護法の改正により、プライバシー保護への意識が高まっています。一方で、子どもの安全を重視する社会的風土もあります。米国の動向は、日本企業が今後どのような技術的・法的対応を取るべきかの重要な指標となるでしょう。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
この記事についてあなたの考えを共有してください
ログインして会話に参加
関連記事
ICE(移民税関執行局)が顔認証、携帯電話位置情報、スパイウェアなど最新監視技術を大量導入。一般市民のプライバシーにも影響が及ぶ可能性
米運輸省がAIを使って航空機や自動車の安全規制を起草する計画を発表。効率化の一方で、AIの誤りが人命に関わる法律に影響する懸念も浮上。
h3h3など人気YouTuberがSnapを提訴。AI学習用データ収集を巡る法的争いが激化する中、コンテンツ創作者の権利はどう守られるのか。
AirTagからTileまで、Bluetoothトラッカーの進化が私たちの日常とプライバシーに与える影響を徹底分析。便利さと監視の境界線はどこにあるのか。
意見