Liabooks Home|PRISM News
AIの「秘密の材料」が流出した
テックAI分析

AIの「秘密の材料」が流出した

5分で読めるSource

MetaがAI訓練データ企業Mercorとの契約を無期限停止。LiteLLMを経由したサプライチェーン攻撃が、ChatGPTやClaudeを支える非公開データセットを危険にさらした可能性がある。AI産業の見えないリスクを解説。

ChatGPTやClaudeが「賢く」なるための最も重要な材料は、実は一般の人々がほとんど知らない小さな会社に委託されている。そして今、その会社がハッキングされた。

何が起きたのか

2026年3月31日、AIトレーニングデータ企業のMercorがスタッフへのメールでセキュリティインシデントを認めました。それを受け、MetaはMercorとのすべての業務を無期限停止。OpenAIも自社の独自トレーニングデータがどの程度露出したかを調査中です。Anthropicはコメントを控えています。

攻撃の入口となったのは、LiteLLMというAI開発者向けのAPIツールです。「TeamPCP」と呼ばれる攻撃者グループが、LiteLLMの2つのバージョンを改ざんし、そのツールを組み込んでいた企業に悪意のある更新プログラムを配布しました。これはいわゆる「サプライチェーン攻撃」であり、被害を受けた組織は数千に上る可能性があります。

流出したとされるデータの規模も深刻です。「Lapsus$」を名乗る別のグループがダークウェブ上でMercorのデータを売りに出しており、その内容には200GB超のデータベース、約1TBのソースコード、3TBの動画・その他情報が含まれると主張しています。ただし、セキュリティ研究者の間では、このLapsus$名義の犯行とTeamPCPは別グループである可能性が高いとみられています。

なぜこれが「普通のデータ漏洩」ではないのか

Mercorの仕事を理解すると、この事件の深刻さが見えてきます。

OpenAIAnthropicMetaといったAIラボは、自社モデルを訓練するために大量の「高品質な人間生成データ」を必要とします。しかし、それを自前で用意するのは非効率です。そこでMercorのような企業が登場します。Mercorは大規模な人間コントラクターのネットワークを組織し、各AIラボ専用のカスタムデータセットを生成します。このデータは「企業秘密中の企業秘密」であり、プロジェクトには内部コードネームが付けられ、CEOが公の場でその内容を語ることはほとんどありません。

PRISM

広告掲載について

[email protected]

今回のインシデントで影響を受けたプロジェクトの一つ「Chordus」は、AIモデルが複数のインターネットソースを使って回答を検証する能力を訓練するためのMetaのプロジェクトです。このプロジェクトに参加していたコントラクターは現在、ログイン自体ができない状態にあり、実質的に収入が途絶えています。

問題の本質は、誰がAIを賢くしているのかが見えにくい構造にあります。私たちがChatGPTやClaudeと会話するとき、その背後には、名前も知られていない中間企業と、さらにその先にいる無数の人間コントラクターが存在します。そのサプライチェーンの一点が破られただけで、複数の世界最大級のAIプロジェクトが停止に追い込まれるのです。

攻撃者TeamPCPとは何者か

セキュリティ企業Recorded Futureのアナリスト、アラン・リスカ氏は「TeamPCPは間違いなく金銭的動機を持っている」と述べています。ただし、このグループの活動はそれだけにとどまりません。

TeamPCPはランサムウェアグループ「Vect」との協力関係も持ち、さらに「CanisterWorm」と呼ばれるデータ消去型ワームを拡散させています。特筆すべきは、このワームの標的がファルシー語をデフォルト言語に設定した、あるいはイランのタイムゾーンに設定されたクラウドインスタンスに絞られている点です。地政学的な意図があるのか、それとも単なるブラフなのか、現時点では判断が難しいとリスカ氏は指摘します。

日本企業・日本社会への視点

日本の視点から見ると、この事件にはいくつかの重要な示唆があります。

第一に、日本のAI開発企業も同様のリスクを抱えているという現実です。ソフトバンクNTT富士通など、AIへの投資を加速させている日本の大手企業も、LiteLLMのようなオープンソースAPIツールを利用している可能性があります。サプライチェーン攻撃は、直接攻撃よりも検知が難しく、日本企業のセキュリティ体制が問われる局面です。

第二に、人間コントラクターへの依存という構造的問題です。日本は労働力不足を背景にAI自動化を推進していますが、高品質なAIモデルを作るためには依然として大量の人間労働が必要です。そのコントラクターが突然収入を失う事態は、AIが「人間の仕事を奪う」という単純な議論では捉えきれない複雑な現実を示しています。

第三に、データの地政学的リスクです。TeamPCPのCanisterWormがイラン関連のシステムを標的にしているという事実は、AI訓練データが単なるビジネス資産ではなく、地政学的な争いの対象になりつつあることを示唆しています。米中間のAI競争が激化する中、日本企業が保有するAI関連データも、将来的に同様のリスクにさらされる可能性があります。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]
AIの「秘密の材料」が流出した | テック | PRISM by Liabooks