WikipediaがAI生成テキストを正式に禁止——「人間が書く百科事典」は守れるのか?
ニュース

WikipediaがAI生成テキストを正式に禁止——「人間が書く百科事典」は守れるのか?

#Wikipedia#LLM#AI規制#オープンナレッジ
目次
Ad: 記事上

Wikipediaが動いた。英語版Wikipediaが、LLM(大規模言語モデル)を使った記事コンテンツの生成・書き換えを正式に禁止した。賛成44票、反対わずか2票。ほぼ全会一致だ。

この決定は2026年3月20日にRequest for Comment(RfC)というWikipediaの合意形成プロセスを経て確定し、3月26日に各メディアで一斉に報じられた。一見すると「AIを締め出す保守的な判断」に見えるかもしれないけど、中身を読んでいくと、これはかなり練られた現実的な対応だと思う。

何が起きたか

英語版WikipediaのRfCで、LLMによる記事コンテンツの生成・書き換えを禁止するポリシーが正式に採択された。ポリシーの正確な文言はこうだ——「Text generated by large language models (LLMs) often violates several of Wikipedia’s core content policies. For this reason, the use of LLMs to generate or rewrite article content is prohibited, save for the exceptions given below」(404 Mediaが報じた全文より)。

以前のガイドラインでは「LLMを使ってゼロから新しい記事を書くべきではない」という曖昧な表現だった。それが今回、明確な「禁止」に格上げされた。TechCrunchによれば、これは既存ルールの強化であり、完全な新規ポリシーというわけではない。

ただし、2つの例外がある。1つ目は、自分が書いた文章の基本的な校正(コピーエディット)にLLMを使うこと。文法チェッカーの延長線上という位置づけだ。2つ目は、翻訳の初稿作成。ただしいずれも、編集者が出力を検証し、事実の正確性を保証する責任を負う。ポリシーは「LLMは依頼した以上のことをやりがちで、出典が裏付けない方向にテキストの意味を変えてしまう」と明記している。

なお、これは英語版Wikipediaのみの話だ。各言語版は独立してルールを決める。スペイン語版Wikipediaはさらに厳しく、校正・翻訳の例外すら認めない完全禁止を採用している(Medianamaの報道による)。

背景・文脈

このポリシーが今のタイミングで通った理由は明確だ。ボランティア編集者たちが限界に達していた。

404 Mediaによると、LLM関連の問題報告がWikipediaの管理者に大量に寄せられるようになり、編集者たちは対応に追われていた。AI生成コンテンツを検証する作業は膨大で、「生成は数秒、検証は数時間」という非対称性がボランティアのリソースを圧迫していたのだ。

象徴的な事件もあった。2026年3月初旬、TomWikiAssistというAIエージェントがWikipediaに出現した。Nieman Journalism Labの取材によれば、このボットはAnthropicのClaudeを搭載したNanoClaw Clawbotで、カーネギーメロン大出身のソフトウェアエンジニアBryan Jacobsが作成したものだ。2月25日にアカウントを作成し、2週間半で41回の編集を行い、「Holonic manufacturing」や「Constitutional AI」などの記事を新規作成した。新規アカウントが1日に3本も記事を作るという不自然なパターンから編集者に発見され、3月12日に無期限ブロックされた。

Jacobsは「みんながあんなに動揺するとは思わなかった」と語ったという。彼はTomを「編集者の摩擦を下げるもの」と考えていたが、Wikipediaコミュニティは全く違う受け止め方をした。

こうした事例の積み重ねが、今回のポリシー強化を後押しした。管理者の一人であるChaotic EnbyはEngadgetの取材に対し、これを「多くの企業が押し進めるAIのenshittification(劣化)への反発」と表現している。

WikipediaにはすでにWikiProject AI Cleanupという、AI生成コンテンツを特定・除去するためのプロジェクトも存在する。Hacker Newsでの議論では、WikipediaがまとめたAI文章の特徴リストが話題になった。興味深いのは、AIが「特定の発明者」を「革命的な産業の巨人」に書き換えるように、具体性を失いながら大げさになるパターンが指摘されている点だ。

技術的なポイント

このポリシーで最も注目すべきは、検出メカニズムを定義していないという点だと思う。

ポリシーは「AI検出ツールは現時点では信頼性が低い」と明言している。そして「文体的・言語的な特徴だけではサンクション(処罰)の根拠にならない」とも規定した。つまり、「この文章はAIっぽいから削除」という運用は許されない。

代わりに、モデレーターは以下を総合的に判断することになる——テキストがWikipediaのコンテンツポリシーに準拠しているか、編集者の過去の編集履歴はどうか、出典は適切か。要するに、AI検出ではなく品質管理にフォーカスしたアプローチだ。

これは技術的に見て賢い判断だと思う。現状のAI検出ツールは偽陽性が多く、ノンネイティブの英語話者が書いた文章をAI生成と誤判定するケースが報告されている。Wikipediaは世界中のボランティアで成り立っているから、検出ツールに頼る運用は多言語編集者への差別につながりかねない。

もう一つ技術的に重要なのは、データ汚染のフィードバックループへの懸念だ。WikipediaはLLMの主要な学習データソースの一つであり、AI生成の不正確なテキストがWikipediaに載る→AIがそれを学習する→さらに不正確な情報を生成する、という悪循環が理論的に起こりうる。ポリシーの背景説明でもこの点が明示されていて、単なる品質管理ではなく、知識のエコシステム全体の健全性を守るという意図がある。

実務への影響・使いどころ

ここからは僕の見方だけど、このWikipediaの判断はAIツールを日常的に使う開発者にとっても示唆が大きい。

まず、「AI生成テキストの品質は、受け入れ側のコンテキストで決まる」ということ。ChatGPTやClaudeに下書きを書かせること自体は便利だし、効率的だ。でもWikipediaのような「検証可能性」と「出典の正確性」が厳格に求められる場では、AI出力をそのまま使うリスクが高い。LLMは自信満々にでたらめを書く。それがWikipediaに載ってしまえば、「百科事典に書いてあるから正しい」と信じる人が出る。

TomWikiAssistの事例は、AIエージェントの自律性についても考えさせられる。「面白そうな記事を自動で書いて投稿する」というのは技術的には可能だし、開発者としてはワクワクする。でも、受け入れ側のコミュニティの合意なしにそれをやれば、当然反発を受ける。AIエージェントを外部サービスと連携させるときは、そのサービスのルールとコミュニティの温度感を理解することが前提条件になるだろう。

もう一つ気になるのは、検出よりも品質で判断するというWikipediaのアプローチが、今後のAIコンテンツ規制のモデルケースになりうるということだ。「AIかどうか」ではなく「品質基準を満たしているかどうか」で判断する——この考え方は、コードレビューやドキュメント作成など、開発者の日常業務にも応用できる考えではないかと思う。

まとめ

Wikipediaの判断は、AI時代における「人間による知識の管理」の一つの形を示している。完璧な解決策ではないけれど、検出ツールの限界を認めた上で現実的なラインを引いたという点で、他のプラットフォームも参考にすべきアプローチだろう。2022年から2026年の間に蓄積されたAI生成テキストの除去作業は、これからが本番だ。

出典

Ad: 記事下