OpenAIが科学論文執筆支援ツール「Prism」を無料公開。AI支援論文が学術誌に急増する中、品質低下への懸念が高まる。査読システムへの負担増加が指摘される。
OpenAI、科学論文執筆ツール「Prism」公開で論文品質低下への懸念再燃
OpenAIは2026年1月14日、科学者向けの無料AI執筆支援ツール「Prism」を公開しました。このツールは論文の執筆や書式設定を支援するものです。しかし、公開直後から研究者たちの間で強い懸念の声が上がっています。すでに学術誌には、AIを使って書かれた低品質な論文が大量に投稿されており、Prismがこの問題をさらに悪化させるのではないかという指摘です。2025年12月の研究では、AIを使った論文は執筆数が30〜50%増える一方、査読での評価は低くなることが明らかになっています。科学出版業界では、この現象を「AIスロップ(AI生成の粗悪コンテンツ)」と呼び、警鐘を鳴らしています。論文の見た目は洗練されても、中身の科学的価値が伴わない論文が増えれば、人手に頼る査読システムが機能不全に陥る可能性があります。
Prismの機能と特徴
Prismは、OpenAIの最新言語モデル「GPT-5.2」を組み込んだ執筆支援ツールです。LaTeXとは、科学論文の組版に広く使われる文書作成システムのことです。数式や図表を美しく配置できるため、理工系の研究者に愛用されています。
このツールでは、論文の下書き作成、引用文献の自動生成、ホワイトボードのスケッチから図表の作成、共著者とのリアルタイム共同編集が可能です。ChatGPTアカウントがあれば誰でも無料で利用できます。OpenAIは2025年後半にクラウド型LaTeXプラットフォーム「Crixet」を買収し、その技術をPrismの基盤としています。
OpenAI科学部門の副社長ケビン・ウェイル氏は記者会見で、「2026年は科学分野にとって、2025年がソフトウェア工学にとってそうだったような年になる」と述べました。ChatGPTには週に約840万件の「ハードサイエンス」に関する質問が寄せられており、AIが科学者の中核的な作業フローに組み込まれつつある証拠だと説明しています。
背景と経緯
AI生成コンテンツによる科学出版の問題は、以前から指摘されてきました。2022年、Metaは科学文献を書くための言語モデル「Galactica」のデモを公開しましたが、すぐに撤回しました。このモデルが「粉砕ガラスを食べる利点」という架空の研究論文を、もっともらしく生成できることが判明したためです。
2024年には、東京のSakana AIが「The AI Scientist」という自律研究システムを発表しましたが、技術者コミュニティから「ゴミ論文を生産する」と批判されました。ある学術誌編集者は「編集者として、これらの論文は机上で却下するだろう。新しい知見がほとんど含まれていない」とコメントしています。
問題はその後も深刻化しています。ケンブリッジ大学出版局の学術出版責任者マンディ・ヒル氏は2025年10月、「あまりにも多くの学術論文が出版されており、これが大きな負担を引き起こしている」と警告しました。AIがこの問題を「悪化させる」と明言しています。
研究で明らかになった問題点
2025年12月、科学誌Scienceに掲載された研究が、AIツールの影響を定量的に示しました。大規模言語モデルを使って論文を書いた研究者は、論文の執筆数が分野によって30〜50%増加しました。しかし、これらのAI支援論文は査読での評価が低かったのです。
興味深いことに、AIを使わずに複雑な言葉で書かれた論文は学術誌に採択されやすい一方、AIで書かれたと思われる複雑な言葉の論文は採択されにくい傾向がありました。査読者は、洗練された文章が弱い科学的内容を隠していることを見抜いていたのです。
コーネル大学の情報科学教授イアン・イン氏は、「これは科学のさまざまな分野で非常に広範に見られるパターンです。現在の研究エコシステムに大きな変化が起きており、どの科学を支援し資金提供すべきか決定する人々にとって、真剣な検討が必要です」と述べています。
別の分析では、1980年から2025年までに発表された4100万本の論文を調査しました。AIを使う科学者は、より多くの引用を受け、より多くの論文を発表していますが、科学的探求の集団的範囲は狭まっているようです。イェール大学の社会文化人類学者リサ・メッセリ氏は、「科学は集団的な営みに他なりません。個人には利益をもたらすが科学を破壊するツールをどうするか、深く考え直す必要があります」と警告しています。
引用文献の捏造リスク
Prismには、従来の文献管理ソフトウェアにはない固有のリスクがあります。EndNoteのような従来ツールは、30年以上にわたって引用文献を書式設定してきましたが、存在しない文献を作り出すことはありません。一方、AIモデルは実在しない文献を、もっともらしく生成してしまう可能性があります。
記者会見でAIが偽の引用を作り出す可能性について問われたウェイル氏は、「これは科学者が自分の参考文献が正しいことを検証する責任を免除するものではありません」と認めました。彼は「AIがより高性能になるにつれ、科学コミュニティにおける量、質、信頼に関する懸念があることを認識しています」と付け加えています。
できること・できないこと
Prismにより、科学者は論文の執筆と書式設定にかかる時間を大幅に削減できます。例えば、英語を母語としない研究者が、自分の研究を国際的な学術誌に投稿しやすくなります。また、面倒な引用文献の書式設定を自動化し、共著者との共同作業を効率化できます。OpenAIの報告書では、数学者がGPT-5.2を使って3晩で最適化の未解決問題を解いた例や、物理学者が数ヶ月かかった対称性計算をAIが再現した例が紹介されています。
一方で、Prismは研究そのものを行うツールではありません。論文の見た目を洗練させることはできても、科学的な内容の質を保証するものではないのです。むしろ、弱い研究内容を洗練された文章で覆い隠し、初期審査を通過させてしまうリスクがあります。また、AIが生成した引用文献が実在するかどうかは、最終的に研究者自身が確認しなければなりません。現時点では、AIツールが科学的発見そのものを代替することはできず、人間の科学者の判断と責任が不可欠です。
私たちへの影響
このニュースは、科学研究に関わるすべての人々に影響を与えます。研究者にとっては、論文執筆の効率化という恩恵がある一方、低品質論文の増加により査読者としての負担が増える可能性があります。
短期的には、学術誌の編集者と査読者が最も大きな影響を受けるでしょう。投稿論文数が増加する一方、査読システムの処理能力は変わらないため、審査の遅延や質の低下が懸念されます。科学誌Scienceの編集長H・ホールデン・ソープ氏は2026年最初の社説で、「人間であれ人工的なものであれ、どんなシステムもすべてを捉えることはできない」と警告しています。
中長期的には、科学研究の質そのものに影響が及ぶ可能性があります。論文の量は増えても、真に新しい知見を含む研究の割合が減れば、科学の進歩が停滞するかもしれません。カリフォルニア大学バークレー校の統計学者ニキータ・ジボトフスキー氏のように、AIツールを適切に使って研究の質を高める科学者もいますが、全体としてのバランスが重要です。
ただし、この問題には技術的な解決策だけでなく、科学コミュニティ全体での議論と合意形成が必要です。ウェイル氏は「単一のAI生成発見ではなく、起こらなかったかもしれない、あるいはこれほど早くは起こらなかったかもしれない1万件の科学的進歩」を目指すと述べていますが、その加速が本当に科学知識を増やすのか、それとも単に論文の数を増やすだけなのかは、今後の展開を注視する必要があります。
