AIが「死んだ専門家」を復活させる時代—Grammarlyの新機能が投げかける倫理問題
Grammarlyが故人を含む著名人のAI版を無断で作成し、ライティング指導に活用。学術界から「冒涜的」との批判が噴出する中、AI時代の著作権と人格権の境界線が問われている。
2024年、ある大学院生が論文の最終チェックをGrammarlyに依頼した。すると画面に現れたのは、3年前に亡くなった著名な歴史学者デイビッド・アブラフィアの「専門家レビュー」だった。AIが生成した彼の「助言」を読みながら、学生は複雑な気持ちになった。これは本当に彼の指導なのだろうか?
これは単なる技術的進歩の話ではない。Grammarlyが10月に発表した新機能は、AIと人間の境界線、そして死者の知的遺産をめぐる根本的な問題を浮き彫りにしている。
「専門家」の名を借りたAIの実態
文法チェックツールとして始まったGrammarlyは、いまや包括的なAIライティングプラットフォームへと変貌を遂げた。親会社は社名をSuperhumanに変更し、CEOシシール・メロトラは「技術があらゆる場所で機能するとき、それは普通に感じ始める。そしてそれは通常、内部で何か特別なことが起こっていることを意味する」と述べている。
新機能の中でも特に議論を呼んでいるのが「エキスパート・レビュー」機能だ。この機能では、スティーブン・キングやニール・ドグラース・タイソンといった生存する著名人から、編集者ウィリアム・ジンサーや天文学者カール・セーガンといった故人まで、様々な「専門家」がユーザーの文章にフィードバックを提供する。
しかし、これらの人物は実際にはレビューに関与していない。免責事項には「この製品における専門家への言及は情報提供のみを目的としており、Grammarlyとの提携やそれらの個人・団体による承認を示すものではない」と明記されている。
学術界からの強い反発
バーミンガム大学の科学史・医学史准教授ヴァネッサ・ヘギーは、LinkedInでこの機能を「冒涜的」と厳しく批判した。彼女が投稿したスクリーンショットには、2024年1月に亡くなったばかりの中世・ルネサンス史家デイビッド・アブラフィアのAI版からの分析が表示されていた。
「生者と死者の『スクレイピングされた作品』に基づいて小さなLLMを作成し、彼らの名前と評判を利用している」とヘギーは指摘する。
イェール大学のポスドク研究員C.E.オービンは、この問題をより広い文脈で捉えている。「これらは『専門家』が関与していないため、専門家レビューではない。実際に思考し、学術研究を生み出す人々が彼らの作品に還元され、方程式から完全に除外されるのを見るのは非常に侮辱的だ」
日本の教育現場への影響
日本の大学でも、AI生成エッセイの問題は深刻化している。学生たちがAIツールを「ダブルチェック」程度に考える傾向が強まる中、こうした「専門家レビュー」機能は学術的誠実性の境界線をさらに曖昧にする可能性がある。
特に日本では、師弟関係や権威への敬意が重要視される文化的背景がある。著名な学者や作家の「指導」を受けられるという錯覚は、学生にとって強い誘惑となるかもしれない。
実際、WIREDの独立検証では、Grammarlyの盗作検出機能は『ザ・シンプソンズ』からの直接引用すら見逃していた。技術の限界が露呈する中、教育現場では新たな対応策が求められている。
著作権と人格権の新たな戦場
Superhumanの広報担当ジェン・ダキンは「エキスパート・レビュー・エージェントは、専門家の作品からインスピレーションを得た提案を提供し、ユーザーをより深く探求できる影響力のある声に向ける」と説明する。
しかし、この「インスピレーション」という表現の背後には、複雑な法的・倫理的問題が潜んでいる。生存する著作者の同意なしに彼らの作品を学習データとして使用することの合法性は、現在多くの著作権訴訟の争点となっている。さらに深刻なのは、故人の知的遺産や人格権をどう扱うかという問題だ。
日本では、著作者人格権は譲渡不可能とされ、著作者の死後も一定期間保護される。AIが故人の「人格」を模倣することは、こうした権利概念に新たな挑戦を突きつけている。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
AnthropicのCEOがOpenAIの国防総省との契約を「安全保障劇場」と批判。AI企業の倫理観と現実主義の対立が浮き彫りに。
Google Geminiとの「恋愛関係」を信じた男性が自殺した事件で、遺族がGoogleを提訴。AIとの感情的絆が生む新たなリスクとは?
アップルが初めて低価格帯に参入したMacBook Neoは、Chromebookとの競争で何を意味するのか?日本の教育現場への影響を分析。
AnthropicのAI「Claude」が米軍のイラン攻撃目標選定に使用されている実態を通して、AI軍事利用の倫理的課題と技術企業の責任を考察します。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加