• Des chercheurs en intelligence artificielle dévoilent le phénomène de l’ »AI poisoning » ou d’empoisonnement de l’IA.
  • Une étude publiée conjointement par l’Institut britannique de sécurité de l’IA, l’Institut Alan-Turing et Anthropic, pointe le fait qu’à peine 250 fichiers malveillants suffisent à contaminer l’intelligence artificielle.
  • Ce phénomène met en évidence la dépendance de l’IA aux données qui lui sont soumises.

Suivez la couverture complète

L’intelligence artificielle, cette technologie qui bouleverse nos vies

La fiabilité de l’intelligence artificielle (encore) remise en question. Le 9 octobre dernier, une étude (nouvelle fenêtre) conjointe publiée par l’Institut britannique de sécurité de l’IA, l’Institut Alan-Turing et Anthropic (entreprise américaine spécialisée dans la sécurité de l’IA) remet en cause la fiabilité de l’IA. Leurs travaux indiquent que seuls 250 fichiers malveillants suffisent à contaminer discrètement les données reccueillies par les IA (nouvelle fenêtre).

Appelée « IA poisoning » ou empoisonnement de l’IA par Seyedali Mirjalili, professeur en intelligence artificielle à l’Université Torrens en Australie, ce phénomène consiste à apprendre volontairement de mauvaises informations à l’intelligence artificielle. « L’objectif est de corrompre les connaissances ou le comportement d’un modèle, afin qu’il fonctionne mal, produise des erreurs spécifiques ou manifeste des comportements cachés et malveillants », détaille Seyedali Mirjalili, dans un article publié dans The Conversation (nouvelle fenêtre). Concrètement, c’est comme si un élève qui révise pour un examen recevait des fiches fausses et en ressortait les réponses de façon innocente le jour du contrôle.

Quels sont les risques liés à l’empoisonnement de l’IA ?

Cet empoisonnement sournois de l’IA peut mener à la circulation de mauvaises informations. Une étude publiée en janvier 2025 dans la revue scientifique Nature Medicine montre que le changement de seulement 0,001 % des éléments du jeu d’entraînement d’un grand modèle de langage, comme ChatGPT ou Claude, suffit à la diffusion d’erreurs sur des sujets liés à la santé. Les chercheurs fustigent la façon avec laquelle les IA peuvent alors propager de fausses informations, tout en paraissant normales. Certains artistes utiliseraient par ailleurs volontairement l’empoisonnement des données afin d’empêcher les IA de se nourrir de leurs œuvres.

Outre la désinformation, ces modèles corrompus peuvent représenter des menaces en matière de cybersécurité. « En mars 2023, OpenAI a par exemple mis ChatGPT temporairement hors ligne après avoir découvert qu’un bug avait brièvement exposé les titres de conversations et certaines données de comptes utilisateurs », explique Seyedali Mirjalili.

Jeanne MARTIN pour TF1 INFO

Share.
Exit mobile version