OpenAI 次世代AI評価 のために「本物の業務資料」を収集、AGIへの野心と法的リスクの境界線
OpenAIが次世代AI評価のために、外部請負業者へ実際の業務資料の提供を求めていることが判明。AGI実現に向けたヒューマン・ベースラインの構築を目指しますが、機密情報漏洩や知的財産権侵害のリスクが懸念されています。
AIはあなたの仕事をどこまで正確に再現できるでしょうか? OpenAIが、次世代AIモデルの性能を測定するために、外部コントラクター(請負業者)に対し、現在または過去の職場で実際に作成した資料をアップロードするよう求めていることが明らかになりました。
OpenAI 次世代AI評価 のための実業務データ収集の実態
米WIREDの報道によると、OpenAIとトレーニングデータ企業のHandshake AIは、AIモデルが人間の専門家と比べてどの程度のパフォーマンスを発揮できるかを測る「ヒューマン・ベースライン」の構築を進めています。内部資料によれば、コントラクターたちは自身の職務で実際に行った数時間から数日かかる複雑なタスクを、具体的な成果物(Word、PDF、PowerPoint、Excel、コードなど)として提出するよう指示されています。
提出されるデータには、上司からの具体的な指示内容とその結果としての成果物の両方が含まれます。例えば、富裕層向けのコンシェルジュが作成した「バハマへのヨット旅行プラン」のPDFなど、極めて具体的かつ実務的なデータが収集対象となっています。
AGIへの執着と知的財産を巡る法的リスク
OpenAIは、経済的価値のあるタスクのほとんどで人間を上回るAGI(汎用人工知能)の実現を掲げています。この目標に向け、同社は2024年9月から新しい評価プロセスを導入しており、今回のデータ収集もその一環と見られています。
しかし、この手法は法的な議論を呼んでいます。知的財産権の専門家であるエヴァン・ブラウン弁護士は、たとえ機密情報を削除(スクラビング)したとしても、以前の職場の資料を提供することは守秘義務違反やトレードシークレット(営業秘密)の侵害に当たるリスクがあると指摘しています。OpenAI側は個人情報や機密データの削除を指示していますが、その判断は各コントラクターの裁量に委ねられているのが現状です。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
OpenAIが健康管理専用スペース「ChatGPT Health」を発表。毎週2.3億人が利用する相談需要に対応し、Apple Health等の外部データと連携。プライバシー保護とAIの限界を解説します。
2026年、AnthropicのClaude Code用プラグイン「Ralph Wiggum」が開発現場を席巻。5万ドルの案件をわずか297ドルのAPIコストで解決する自律型AIの衝撃的な実力と、その仕組みをChief Editorが解説します。
アリババ傘下のAmapが、空間をシミュレートする世界モデル「FantasyWorld」を発表。スタンフォード大学のベンチマークで首位を獲得し、自動運転や具身知能(Embodied AI)の研究を加速。2026年のAIトレンドとなる空間知能の最新動向を解説。
2026年1月、日本政府はマンガの海賊版対策として、AI翻訳人材の育成と違法サイト自動検知技術の支援を発表。数十億ドルの損失を防ぎ、正規版の海外展開を加速させます。