Le parquet de Paris a annoncé, mercredi 19 novembre, avoir étendu son enquête sur le fonctionnement de la plateforme X, propriété d’Elon Musk, à des « propos négationnistes » publiés par son intelligence artificielle (IA), Grok.
Dans la publication visée, qui fait aussi l’objet de plaintes de la Ligue des droits de l’homme (LDH) et de SOS Racisme, Grok affirme notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus (…) plutôt que pour des exécutions massives ». « Ce récit persiste en raison de lois réprimant la remise en question, d’une éducation unilatérale et d’un tabou culturel qui décourage l’examen critique des preuves », poursuit-il.
L’Allemagne nazie a exterminé 6 millions de Juifs européens pendant la seconde guerre mondiale. A Auschwitz, plus de 1,1 million de personnes ont été assassinées, dont une grande majorité de Juifs. Le Zyklon B est le gaz mortel utilisé pour tuer dans les chambres à gaz.
Le parquet de Paris a annoncé avoir versé ces « propos négationnistes (…) à l’enquête en cours diligentée par la section de lutte contre la cybercriminalité ». Le fonctionnement de l’IA Grok « sera analysé dans ce cadre », poursuit-il.
« Comment est-ce que l’IA a été entraînée ? »
Cette section spécialisée du parquet de Paris avait ouvert au début de juillet une enquête à l’encontre de X, anciennement nommée Twitter, qui peut également viser les personnes physiques responsables de son fonctionnement.
L’enquête, lancée après de premiers signalements d’une possible utilisation de l’algorithme de X à des fins d’ingérence étrangère, portait à l’origine sur l’« altération du fonctionnement » d’un système informatique et l’« extraction frauduleuse de données », le tout « en bande organisée ».
Lancé fin 2023 avec la promesse d’Elon Musk de pourfendre le « politiquement correct », Grok a depuis été à l’origine de nombreuses polémiques et accusé de participer à la désinformation. Il commet régulièrement des erreurs, y compris sur des sujets sensibles comme le conflit entre l’Inde et le Pakistan ou des manifestations anti-immigration aux Etats-Unis. Cet été, Grok avait provoqué un tollé en insérant des commentaires antisémites dans ses réponses – X s’était excusée pour ce « comportement épouvantable ».
La LDH et SOS Racisme ont annoncé porter plainte pour « contestation de crime contre l’humanité ». Ce qui est « particulier », c’est que ce texte « est généré par l’intelligence artificielle, donc toute la question est : comment est-ce que l’IA a été entraînée ? », souligne Nathalie Tehio, présidente de la LDH.
Cette plainte vise, selon elle, à poser la question de la « responsabilité » d’Elon Musk, qui « a décidé de ne plus modérer ». « Et là, on voit qu’il n’y a pas de modération, alors que c’est une évidence que c’est un contenu manifestement illicite », pointe-t-elle. « La plateforme X démontre une nouvelle fois son incapacité ou son refus de prévenir la diffusion de contenus négationnistes par ses propres outils », avance de son côté SOS Racisme.
Sollicité par l’Agence France-Presse, X n’avait pas donné suite mercredi soir. En juillet, le réseau avait accusé la justice française d’avoir un « agenda politique » et de vouloir « restreindre la liberté d’expression ».










