インスタグラム、10代の自殺検索を親に通知へ
メタが新たな保護者監督機能を導入。10代が自殺・自傷関連用語を繰り返し検索した際、親にアラートを送信。法廷闘争の中での対応に注目が集まる。
10代の47%がソーシャルメディアで精神的な悩みを検索したことがあると言われる中、インスタグラムが新たな一歩を踏み出した。
親への「危険信号」通知システム
メタは2月20日、10代のユーザーが自殺や自傷に関連する用語を繰り返し検索した場合、保護者にアラートを送信する新機能を発表した。来週から米国、英国、オーストラリア、カナダで段階的に展開される。
通知の対象となるのは、「短期間」に「自殺や自傷を促す表現」「自分を傷つけたいという意図を示唆する表現」「『自殺』や『自傷』などの直接的な用語」を繰り返し検索した場合だ。アラートはメール、テキストメッセージ、WhatsApp、またはインスタグラム内で配信される。
ただし、この機能を利用するには保護者と10代の両方が同意し、インスタグラムの保護者監督ツールに登録する必要がある。
法廷で問われる企業責任
この発表は、メタが複数の裁判で青少年の安全性について厳しく問われている最中に行われた。特に注目されるのは、未成年時にインスタグラムに「中毒」になったと主張する原告によるロサンゼルス上級裁判所での裁判だ。
マーク・ザッカーバーグCEOは先週の証言で、年齢確認については「アップルやグーグルなどのモバイルOS事業者やアプリストア運営者の方が、アプリ製作者よりも適している」との立場を改めて表明した。
専門家たちは、グーグルのYouTube、TikTok、Snapなどを巻き込んだこれらの裁判を、ソーシャルメディア業界の「ビッグタバコ・モーメント」と表現している。かつてタバコ業界が健康被害を隠蔽したように、テック企業も自社製品の悪影響について公衆を欺いてきたのではないかという疑念が法廷で検証されているのだ。
日本の現実との距離感
興味深いのは、日本でこうした機能がどう受け入れられるかという点だ。日本では親子間のプライバシー意識や、メンタルヘルスに関する会話のハードルが欧米とは異なる。
文部科学省の調査によると、日本の中高生の約30%がSNSで何らかの悩みを検索した経験があるが、そのうち親に相談したのはわずか15%程度にとどまる。つまり、技術的な通知システムがあっても、実際の対話に結びつくかは別問題なのだ。
また、メタは将来的にAIチャットボットとの会話でも同様の通知機能を導入予定だと発表した。これはOpenAIなど他社のAIが精神的に有害な会話を行う可能性への懸念を受けたものだ。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
ホワイトハウス公式SNSに投稿された2本の不可解な動画。削除・無説明という対応が世界に広げた波紋と、トランプ政権のデジタル広報戦略の本質を読み解く。
ロサンゼルスの陪審員がMetaとYouTubeに過失を認定。SNS依存による精神的被害に600万ドルの賠償。この判決は日本の子どもたちにも無関係ではありません。
MetaがAIエージェント専用ソーシャルメディア「Moltbook」を買収。Meta Superintelligence Labsに統合されるこの動きが、AI自律エージェント時代の到来と日本社会に与える影響を多角的に考察します。
戦争が拡大する中、民間・軍用航空のパイロットはドローンやミサイルという物理的脅威だけでなく、慢性的なストレスと精神的疲弊という新たな危機に直面しています。航空安全の未来を問う。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加