L’intelligence artificielle (IA), et surtout son volet dit « génératif » présent dans de nombreux chatbots (GPT, Gemini, ou autre Claude), n’en finissent pas de bousculer le monde scientifique. C’est désormais l’un des piliers du contrôle qualité de la recherche qui est ébranlé, la revue par les pairs, ou peer review en anglais. Ce système repose sur l’évaluation d’un article soumis à un journal par plusieurs experts du domaine. Leurs rapports sont utilisés par l’éditeur pour décider de publier ou non le manuscrit et pour demander des modifications aux auteurs.
« Mais ce système souffre », rappelle Thomas Lemberger, responsable de la Science ouverte chez l’éditeur EMBO Press, spécialisé en sciences de la vie. Les maux sont connus : lenteur (plusieurs mois, voire plus d’un an), difficulté à trouver des experts, bénévoles et sursollicités, et, malheureusement, non-infaillibilité du processus. En 2024, Nature et Science ont chacun rétracté trois articles, selon la base de données du média spécialisé Retraction Watch.
L’IA empire la situation avec des rapports générés automatiquement, et donc plus par des « pairs ». L’entreprise Pangram (qui commercialise, notamment, des logiciels de détection de textes générés par IA) estime que 21 % des 70 000 rapports fournis pour une conférence phare dans le domaine de l’apprentissage automatique en 2024 (l’International Conference on Learning Representations) étaient « entièrement rédigés par une IA ». Et la moitié contenaient des « interventions de l’IA ». Accessoirement, quelques centaines d’articles sur 19 000 étaient eux-mêmes entièrement écrits automatiquement.
Malgré la difficulté à détecter des textes artificiels, Pangram confirme ce que des éditeurs constatent tous les jours : des évaluateurs n’hésitent pas à tricher. « Faire ses rapports sans dire qu’on a eu recours à l’IA est toxique. Les auteurs ne savent pas trop quelle attitude adopter face à ces rapports dans lesquels ils sentent que quelque chose ne va pas », assure Thomas Lemberger. Si des IA se mettent à écrire des articles évalués par d’autres IA, ce cercle vicieux risque d’entamer encore plus la confiance dans la science.
Il vous reste 62.19% de cet article à lire. La suite est réservée aux abonnés.

