OpenAI 次世代AI評価 のために「本物の業務資料」を収集、AGIへの野心と法的リスクの境界線
OpenAIが次世代AI評価のために、外部請負業者へ実際の業務資料の提供を求めていることが判明。AGI実現に向けたヒューマン・ベースラインの構築を目指しますが、機密情報漏洩や知的財産権侵害のリスクが懸念されています。
AIはあなたの仕事をどこまで正確に再現できるでしょうか? OpenAIが、次世代AIモデルの性能を測定するために、外部コントラクター(請負業者)に対し、現在または過去の職場で実際に作成した資料をアップロードするよう求めていることが明らかになりました。
OpenAI 次世代AI評価 のための実業務データ収集の実態
米WIREDの報道によると、OpenAIとトレーニングデータ企業のHandshake AIは、AIモデルが人間の専門家と比べてどの程度のパフォーマンスを発揮できるかを測る「ヒューマン・ベースライン」の構築を進めています。内部資料によれば、コントラクターたちは自身の職務で実際に行った数時間から数日かかる複雑なタスクを、具体的な成果物(Word、PDF、PowerPoint、Excel、コードなど)として提出するよう指示されています。
提出されるデータには、上司からの具体的な指示内容とその結果としての成果物の両方が含まれます。例えば、富裕層向けのコンシェルジュが作成した「バハマへのヨット旅行プラン」のPDFなど、極めて具体的かつ実務的なデータが収集対象となっています。
AGIへの執着と知的財産を巡る法的リスク
OpenAIは、経済的価値のあるタスクのほとんどで人間を上回るAGI(汎用人工知能)の実現を掲げています。この目標に向け、同社は2024年9月から新しい評価プロセスを導入しており、今回のデータ収集もその一環と見られています。
しかし、この手法は法的な議論を呼んでいます。知的財産権の専門家であるエヴァン・ブラウン弁護士は、たとえ機密情報を削除(スクラビング)したとしても、以前の職場の資料を提供することは守秘義務違反やトレードシークレット(営業秘密)の侵害に当たるリスクがあると指摘しています。OpenAI側は個人情報や機密データの削除を指示していますが、その判断は各コントラクターの裁量に委ねられているのが現状です。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
米議会調査で判明したデータブローカー企業の不透明な退会手続きと、それに関連する個人情報漏洩による消費者損失の実態を詳しく解説
AnthropicがDeepSeekなど中国AI企業3社のClaude不正利用を告発。2万4000の偽アカウントで1600万回の対話を通じた「蒸留」手法の実態とは。
パランティアが米国土安全保障省と10億ドルの包括契約を締結。移民監視技術の拡大に対し、社員からも懸念の声が上がる中、民主社会における監視技術の適切な統制について考える。
蘭州とシンガポールから大量のボットが世界中のウェブサイトを訪問。AI学習データ収集か、それとも別の目的があるのか?
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加