【要約】Preprint server arXiv will ban submitters of AI-generated hallucinations [Ars_Technica] | Summary by TechDistill
> Source: Ars_Technica
Execute Primary Source
// Problem
学術論文の投稿において、AIが生成した不正確な情報が混入する問題が深刻化している。査読者や編集者がAIによる誤情報を検知できず、学術的信頼性が脅かされている。
- ・AI生成による偽の引用や、未編集のプロンプト回答の混入。
- ・無意味な図表や、偏った内容、誤ったデータの拡散。
- ・AI生成コンテンツ(スロップ)による学術的コミュニケーションの質の低下。
// Approach
arXivのモデレーションチームは、学術的基準を遵守させるため、AI生成物の不適切な投稿に対する制裁ルールを策定した。
- ・不適切なAI生成コンテンツの投稿に対し、全著者を対象とした1年間の投稿禁止措置を実施。
- ・制裁対象となった著者の将来的な投稿には、ジャーナルによる査読完了を必須化。
- ・コンテンツの責任はAIではなく、全著者が負うことを明確に規定。
// Result
arXivは、この新方針によって学術情報の正確性とプラットフォームの信頼性を維持することを目指している。
- ・不適切なAI生成コンテンツの投稿に対する強力な抑止力の確保。
- ・学術的コミュニケーションにおける品質管理基準の厳格化。
- ・(課題として)著者リストの悪用リスクに対し、異議申し立てプロセスによる対応を継続。
Senior Engineer Insight
> データ整合性の観点から、AI生成物の無秩序な流入はプラットフォームの価値を破壊する。arXivの対応は、責任の所在を「AI」ではなく「人間(著者)」に明確に帰属させた点で極めて合理的だ。これは、生成AI時代のガバナンスにおける重要なモデルとなる。ただし、検知コストの増大と、悪意ある著者偽装への技術的対策が、運用のスケーラビリティを左右するだろう。