Liabooks Home|PRISM News
Wikipediaが「AI執筆禁止」へ——知識の番人は誰であるべきか
テックAI分析

Wikipediaが「AI執筆禁止」へ——知識の番人は誰であるべきか

4分で読めるSource

Wikipediaが編集者によるAI生成テキストの使用を禁止。40対2の圧倒的多数で可決されたこの決定は、AI時代における「信頼できる知識」の在り方に深い問いを投げかけています。

「誰でも編集できる百科事典」は、AIにも編集させるべきなのでしょうか。

2026年3月、Wikipediaはその問いに明確な答えを出しました。40対2という圧倒的な票差で、編集者によるAI生成テキストの使用を禁止する新しいポリシーが可決されたのです。

何が変わったのか——新ポリシーの中身

今回の変更の核心は、「LLM(大規模言語モデル)を使って記事のコンテンツを生成・書き換えることを禁止する」という一文です。これは以前の曖昧な表現——「ゼロから新しい記事を生成するためにLLMを使用すべきではない」——を、より明確かつ厳格な形に改めたものです。

ただし、AIを完全に締め出したわけではありません。新ポリシーは、「編集者が自分の文章に対して基本的な校正提案をLLMに求めること」は引き続き認めています。条件は、人間によるレビューを経ること、そしてLLMが独自のコンテンツを追加しないことです。ポリシーには注意書きも添えられています。「LLMは求められた以上のことをして、引用された出典では裏付けられない形でテキストの意味を変えてしまうことがある」と。

この決定を主導したのは、Wikipediaの膨大なボランティア編集者コミュニティです。AIの台頭とともに、記事内へのAI生成コンテンツの混入が深刻な問題として議論されるようになり、今回の投票に至りました。

なぜ今、この決定が重要なのか

PRISM

広告掲載について

[email protected]

Wikipediaは世界で最も参照される情報源のひとつです。月間ユニークユーザーは約17億人とも言われ、その情報は無数のAIモデルの学習データにも使われてきました。つまり、WikipediaにAI生成コンテンツが混入すれば、それを学習したAIがさらにその情報を広め、「AIがAIを汚染する」という循環が生まれかねません。

OpenAIGoogleをはじめとする企業がAIツールを急速に普及させる中、メディアや教育機関、情報プラットフォームは相次いでAI利用のガイドラインを模索しています。Wikipediaの決定はその流れの中でも特に注目に値します。なぜなら、この組織は商業的利益ではなく、ボランティアの「知識への信念」によって動いているからです。

日本においても、この問題は他人事ではありません。ウィキペディア日本語版は英語版に次ぐ規模を持ち、多くの日本人ユーザーが日常的に参照しています。学校教育、企業の調査業務、報道機関のファクトチェックにも間接的に影響を及ぼす可能性があります。

「信頼」をめぐる複雑な現実

ここで立ち止まって考えてみましょう。Wikipediaの記事は、もともと「信頼できる」のでしょうか。

同サイトは長年、情報の正確性や中立性をめぐる批判にさらされてきました。人間の編集者もバイアスを持ち、誤りを犯します。ある研究では、Wikipediaの誤り率は従来の百科事典と大差ないという結果も出ています。その意味では、「AIが問題」というより、「誰が書いたかに関わらず、検証なき情報は危険」という本質的な問題があるとも言えます。

一方で、AI生成テキストの問題は質の問題だけではありません。LLMは「もっともらしい嘘」——ハルシネーション(幻覚)——を生成することで知られており、出典を正確に引用しているように見えて、実際には存在しない文献を参照することさえあります。これは人間の単純な誤りとは性質が異なる危険性を孕んでいます。

別の視点から見れば、AIの支援を完全に排除することは、編集者の負担増大を意味します。Wikipediaのボランティアコミュニティは高齢化が進んでおり、新規編集者の獲得も課題です。日本でも少子高齢化が進む中、「人間だけで知識を維持・更新する」モデルがいつまで持続可能なのかという問いは、決して遠い話ではありません。

本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。

意見

関連記事

PRISM

広告掲載について

[email protected]
PRISM

広告掲載について

[email protected]