Au début, les spécialistes ont souri. Puis ils ont fini par vraiment s’inquiéter. En août 2023, Guillaume Cabanac, professeur à l’université de Toulouse-III, et aussi fin traqueur de malhonnêtetés dans des articles de recherche, tombe sur une bizarrerie. Au milieu d’un article de physique, il lit un bout de phrase bizarre, « Regenerate response », qu’il reconnaît aussitôt. Ce texte est en fait un copié-collé de celui du bouton présent sur un site dont tout le monde parle depuis quelques mois, ChatGPT. Il vient d’identifier la première preuve d’un usage du célèbre chatbot pour écrire des articles de recherche en quelques secondes. Le texte, publié par une maison d’édition indépendante et de bonne réputation, l’Institut de physique, sera rétracté en septembre 2023.

Quelques mois plus tard, c’est un rat doté d’un pénis géant, illustrant une parution de biologie, et trahissant l’usage de l’intelligence artificielle (IA) génératrice d’images fantaisistes, qui fait aussi parler de lui. Rétractation, là encore. « En découvrant d’autres exemples, ma première réaction a été l’amusement. Mais les conséquences plus graves me sont vite apparues. Si ce genre de contenu peut passer le filtre de la relecture par les pairs, alors ce processus ne fait pas son travail », témoigne Alex Glynn, documentaliste à l’université de Louisville (Kentucky). Depuis l’arrivée des IA génératives, il s’est lancé dans une collecte de cas suspects, en cherchant des expressions typiques des IA, comme « selon ma dernière mise à jour ». Il en a déjà recensé plus de 500, dont certains touchant les grandes maisons d’édition – Elsevier, Nature Springer, Wiley…

En réaction, ces dernières ont publié des guides de bonnes pratiques : il n’est pas forcément interdit aux auteurs d’utiliser ces outils, mais à condition de le préciser. Deux éditeurs contactés par Le Monde, Elsevier et Nature Springer, se veulent rassurants. « Nous pensons que l’IA peut être bénéfique aux chercheurs », estime un porte-parole de Nature Springer. « Nous considérons l’IA comme un outil puissant qui, lorsqu’il est intégré de manière responsable, renforce l’intégrité de la recherche et accélère l’innovation », complète un porte-parole d’Elsevier. Les deux précisent aussi que ces usages doivent être faits « éthiquement », « avec de la supervision humaine ». Comme d’autres éditeurs, ils disposent aussi d’outils d’intelligence artificielle pour détecter d’autres IA (images, plagiats, etc.).

Il vous reste 48.88% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version