ICML 2026 大量デスクリジェクト事件:LLMが学術的誠実性の試金石となる時

ICML 2026組織委員会は昨日、学術界を震撼させる発表を行った。「LLM不使用」の審査約束を破った506名の審査者を検出し、結果として497件の投稿論文がデスクリジェクトされた——全投稿数の約2%に相当する。

技術的ミスでも、誤判定でもない。全ケースが人手による確認を経ている。

二軌制政策の狙い

ICMLは今年、革新的な二軌制審査政策を採用した:

  • Policy A(保守派):審査へのLLM使用を完全禁止
  • Policy B(開放派):論文理解や審査意見の推敲へのLLM使用を許可

組織委員会は審査者に自主的な選択を委ねた。Policy Aを選んだ者は、「AI不使用」の誓約書に署名したも同然だ。

その結果は?795件の「完全人間によるはず」の審査意見から、LLM生成コンテンツが検出された。

検出方法の詳細

発表では、市販の信頼性に欠ける「AI検出ツール」は使用していないと明言されている。具体的な検出手法は公開されていない(回避を防ぐためだろう)が、flaggedされた全ケースが人手で検証され、誤検出は排除されたと強調されている。

特筆すべきは、51名の審査者が審査意見の半数以上でLLMを使用していたこと。これらの者は審査者プールから即座に除外された。他の者については、LLMによる審査意見が削除されたが、それ以外の人間による審査は保持された。

なぜ497件の論文が拒否されたのか?

ICMLはreciprocal review(相互審査)制度を採用している。あなたが他人の論文を審査すれば、他人があなたの論文を審査する。あなたの論文を担当したPolicy Aの審査者が違反を犯した場合、論文の質に関わらず、あなたの論文はデスクリジェクトされる。

多くの著者が、無辜の巻き添え被害者となったわけだ。

より深層的な矛盾

この事件は、避けられない問いを突きつける:私たちは何を守ろうとしているのか?

LLM審査に反対する論拠には、以下のようなものがある:

  1. 著者のプライバシー:LLMが論文内容を学習に使用する可能性
  2. 審査の質:AI生成の審査意見は表面的になりがち
  3. 学術倫理:審査は人間の知的労働であるべき

しかし、支持派も主張する。LLMは非英語母語話者の表現を助け、学際的な内容の理解を補助し、審査の一貫性を高められると。

さらに皮肉なことに、ICML自身がAIを使用してAI審査を検出している——これは、彼らが審査プロセスにおけるAIの使用そのものを反対しているわけではなく、「無許可の」使用を反対していることを示している。

他の会議への示唆

NeurIPS、ICLR、ACLなどのトップ会議は、この事件を注視している。予想される展開:

  • 検出技術の軍拡競争:道高一尺、魔高一丈
  • 政策の高度化:単純な「許可/禁止」では不十分になりうる
  • 著者のバックアップ計画の必要性:全てを一つの会議に託してはいけない

最後に

497のデスクリジェクトの背後には、497の研究チームの数か月の心血がある。LLM審査に対してどのような立場を持とうと、この事件が示したことは一つだけだ:明確なルールは、曖昧な道徳的呼びかけより効果的

ICMLが事前に審査者に明確な政策選択をさせ、約束を取り付けていなければ、これほど明確な説明責任の連鎖は生まれなかっただろう。この「選択―約束―説明責任」のメカニズムは、AI時代の学術ガバナンスの縮図かもしれない。


参考:ICML Blog - On Violations of LLM Review Policies