• Une publication affirme que des scientifiques auraient découvert, en le confrontant à un lion, qu’un robot doté d’IA pourrait ressentir de la peur.
  • Il s’agit en réalité d’une fausse vidéo générée par l’intelligence artificielle.
  • Et pour cause : cette technologie n’est pas capable de ressentir des émotions, mais seulement de les simuler.

Suivez la couverture complète

L’info passée au crible des Vérificateurs

Si vous vous retrouvez nez à nez avec un lion, vous aurez très probablement peur. Selon comment se déroule cette rencontre, vous pourriez également en ressortir traumatisé. Mais une machine aura-t-elle la même expérience que vous ? D’après cette publication virale sur X (nouvelle fenêtre), que l’on retrouve en français (nouvelle fenêtre) et en anglais (nouvelle fenêtre) sur Facebook, une équipe d’ingénieurs africains aurait dépensé un demi million de dollars pour « tester les limites extrêmes de l’IA ». Un robot « programmé pour analyser les émotions et reconnaître les animaux » aurait été confronté à un lion. Figé par la peur, il aurait cessé de fonctionner. « Dès qu’il a vu le lion, le robot a enregistré ‘Gros chat. Peur.’« , peut-on lire en légende.

Et ce n’est pas tout. La machine aurait même souffert de stress posttraumatique. « Même après l’effacement de sa mémoire, la peur restait enracinée. Chaque fois qu’il voyait un animal à quatre pattes, même un simple chat domestique, il criait ‘non, peur’« , affirme la publication. Les ingénieurs ont dû « retirer une partie de son processeur », pour que le « premier robot de l’Histoire atteint de stress post-traumatique » se remette de ses émotions. Sur les images associées à la publication, on voit ce qui ressemble au point de vue d’une caméra à vision nocturne qui montre un robot avancer vers un lion, puis ne plus bouger. En réalité, tout est faux. Et ironie de l’histoire, la vidéo partagée en guise de preuve est… générée par l’IA. Les Vérificateurs décryptent cette intox.

Capture d’écran Meta / Les Vérificateurs

En effectuant quelques recherches, nous ne trouvons aucun article scientifique, ni aucune mention dans les médias de cette supposée expérience scientifique. La seule prétendue source que nous retrouvons est ce billet issu d’un blog (nouvelle fenêtre), qui ne semble pas fiable pour plusieurs raisons. L’auteur n’a que trois publications à son actif, dont une autre sur une fausse information déjà passée au crible par les Vérificateurs concernant une entreprise chinoise qui aurait développé un « robot de naissance » (nouvelle fenêtre). La photo de profil de « Omasanjuwa Ogharandukun » sur qui nous ne trouvons aucune information, est générée par l’IA. Selon des outils de détection de l’usage (nouvelle fenêtre) de cette technologie, l’article entier est rédigé par l’intelligence artificielle.

Le texte et la photo de profil de l'auteur sont générées par l'IA. Le blog a déjà partagé d'autres fausses informations sur lesquelles les Vérificateurs se sont penchés.  - Captures d'écran Undetectable.ai / Sightengine / Les Vérificateurs
Le texte et la photo de profil de l’auteur sont générées par l’IA. Le blog a déjà partagé d’autres fausses informations sur lesquelles les Vérificateurs se sont penchés. – Captures d’écran Undetectable.ai / Sightengine / Les Vérificateurs

Après une recherche par image inversée, nous retrouvons la vidéo sur TikTok (nouvelle fenêtre). Elle a été partagée le 3 septembre par un compte nommé « viral_ai_reels », qui ne partage que des vidéos générées par l’IA. Le logo « Veo » visible en bas à droite indique clairement que les images ont été créées avec ce générateur de vidéos (nouvelle fenêtre) par IA de Google (nouvelle fenêtre). Il s’agit donc d’une fausse vidéo, et cette prétendue expérience scientifique n’a jamais eu lieu. 

Une IA ce n’est pas plus intelligent qu’un grille-pain

Frédéric Boisdron, consultant en robotique, IA et nouvelles technologies.

Tous les experts interrogés par les Vérificateurs sont par ailleurs unanimes : un robot ne peut pas ressentir la peur. « Une IA ce n’est pas plus intelligent qu’un grille-pain », tranche Frédéric Boisdron, consultant en robotique, IA et nouvelles technologies (nouvelle fenêtre). « On a l’impression que c’est intelligent parce que ça parle dans un bon français, mais ce ne sont pas des réponses réfléchies. L’IA fait juste des opérations mathématiques, des calculs de probabilité, pour savoir quelle est la réponse la plus probable à donner au prompt (instruction donnée à l’IA, ndlr)« , nous éclaire le spécialiste.

Marcello Mortillaro, chercheur au Centre interfacultaire en sciences affectives de Genève (nouvelle fenêtre), abonde en ce sens. « Une émotion n’est pas une chose », explique l’expert. Une « série de composantes » se mettent en route pour créer « cette expérience » que nous qualifions d’émotion, dont des « réactions physiologiques », détaille le chercheur. Vous tremblez, suez, rougissez, votre gorge se serre, votre rythme cardiaque s’accélère… « Cela n’est évidemment pas possible pour une machine, qui ne peut pas avoir les mêmes changements physiologiques que nous », conclut-il. 

En revanche, ce que l’intelligence artificielle sait déjà très bien faire, c’est lire les émotions de l’individu en face d’elle, et estimer l’émotion la plus probable dans certaines situations. « S’il y a des signaux expressifs, des animaux qui sont régulièrement exprimés avant une agression, on peut entraîner la machine à reconnaître ce type de signaux », selon Marcello Mortillaro. Une fois le danger détecté, le robot va calculer une autre donnée : quelle est l’émotion la plus probable d’un humain face à un lion ? Vous l’avez sans doute déjà deviné, c’est la peur. L’IA va donc décoder et mimer des comportements, mais cela ne veut pas dire qu’elle ressent quoi que ce soit. 

L’idée même qu’un robot développe un stress post-traumatique est tout aussi « absurde », selon Jean-Gabriel Ganascia, professeur d’informatique à la Sorbonne et philosophe. L’IA se nourrit de données, et peut ensuite apprendre en réfléchissant par elle-même, et se basant sur ses expériences passées, c’est-à-dire l’historique de données collectées. Mais tout cela peut être effacé, « tandis que dans le cadre d’un être humain, la mémoire est partie intégrante de notre individualité », souligne l’auteur de Mythe de la Singularité et L’I.A. expliquée aux humains

Anciennes croyances et marketing moderne

Il n’y a donc aucune preuve scientifique qui atteste que l’IA, et les machines au sens large, ressentent des émotions. Alors pourquoi ce type de fausse information sur des robots capables d’éprouver des émotions devient régulièrement viral ? « C’est une forme d’animisme moderne, on projette ce que l’on ressent, on attribue une âme à un objet », nous explique Jean-Gabriel Ganascia, qui rappelle que les humains ont toujours eu peur que les objets s’animent, comme l’illustrent des mythes comme Pinocchio

Et c’est aussi un outil commercial, basé sur la psychologie humaine. « Il y a toute une discipline en informatique qui a pour but de donner aux robots les apparences de quelqu’un qui éprouverait une émotion. On fait ça pour qu’on puisse interagir facilement avec des ordinateurs », explique encore Jean-Gabriel Ganascia. Les constructeurs incluent « des yeux expressifs » pour donner l’impression que la machine a des sentiments, et jouent sur ce point « dans leurs campagnes marketing », précise Frédéric Boisdron, consultant en robotique, IA et nouvelles technologies. « Un robot à l’apparence humaine est pris plus au sérieux qu’un bloc sur quatre roues », ajoute le spécialiste. Nous humanisons un robot s’il nous ressemble et agit comme nous. « Mais ce n’est qu’un écran qui affiche des expressions du visage », rappelle-t-il.

Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse lesverificateurs@tf1.fr. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.

Astrig AGOPIAN

Partager
Exit mobile version