Les outils d’intelligence artificielle permettent de réaliser des escroqueries de plus en plus sophistiquées.
Et il devient de plus en plus difficile pour les particuliers de les débusquer.
Le 20H de TF1 a tenté de décrypter comment les repérer.
Suivez la couverture complète
Le 20H
Il y a quelques semaines, Audrey a reçu un mail pour stationnement impayé. S’il s’agit d’une arnaque, le message qui lui indique qu’elle doit payer une amende majorée de 264,48 euros a tout d’un vrai : les logos, la formule de politesse, une syntaxe irréprochable… le tout sans fautes d’orthographes. Une escroquerie particulièrement élaborée (nouvelle fenêtre) rendue possible par les outils de l’intelligence artificielle qui leur permet de générer des textes, des images et des vidéos en direct.
En compagnie d’un expert en cybersécurité, une équipe du JT de 20H de TF1 a voulu tester ces outils. Et les résultats sont impressionnants : via une simple question, l’IA donne en quelques secondes la marche à suivre, étape par étape, pour créer le mail d’arnaque parfait. « On peut donner à ces mails la note de 7 sur 10, dans la mesure où ils sont hyper réalistes, avec des choses totalement dans l’air du temps », pointe Clément « Saxx » Domingo, hackeur éthique et professionnel de la cybersécurité.
Un gain de temps et de qualité
Mais l’intelligence artificielle permet aussi d’aller plus loin : usurpation d’identité, fabrication de faux papiers, elle communique les logiciels à utiliser, les polices d’écriture officielles de l’État et même les techniques pour imprimer au mieux une carte d’identité. « Sans l’aide de notre intelligence artificielle totalement débridée, on aurait mis trois ou quatre heures pour compiler tout un tas d’informations. Alors que là, en l’espace de 10 minutes, on a quand même déjà un condensé de ce qu’il faut faire », explique Clément « Saxx » Domingo.
Voilà l’intérêt pour les escrocs : être plus efficaces, mais aussi plus crédibles. Et pour inspirer confiance, quoi de mieux que de parler de vive voix, en se faisant passer, par exemple, pour un conseiller bancaire. Là aussi, c’est possible avec l’intelligence artificielle. Marouane Ouarab, hackeur éthique et fondateur de « Findmyscammer », détaille dans le reportage du JT de 20H, comment un logiciel d’IA permet de faire dire ce que l’on veut à n’importe qui.
Une fois la voix enregistrée, elle est envoyée au logiciel qui utilise les intonations repérées pour lire un texte. Pour s’assurer de la réalité de son interlocuteur en ligne, petite astuce : lui demander de faire pivoter sa caméra pour montre son environnement, ce que l’IA a – pour l’instant – du mal à recréer.
Mais les générateurs de texte ne sont que la partie émergée de cet iceberg. Des modèles d’IA peuvent « tirer parti de toutes les données qui ont été dérobées ces dernières années pour automatiser la création d’escroqueries hautement personnalisées », a alerté en janvier dernier auprès de l’AFP Steve Grobman, directeur technique de l’éditeur de logiciels de sécurité McAfee. « Il y a quelques années, cela n’aurait pas été possible sans mobiliser une armée » de petites mains.
Une arme… mais aussi un outil
L’escroquerie en ligne est devenue une industrie si lucrative que « comme pour d’autres secteurs, il existe des chaînes d’approvisionnement et tout un écosystème pour la soutenir », observait alors l’expert de McAfee. En France, plus de 130.000 escroqueries en ligne ont été enregistrées en 2023 (nouvelle fenêtre), selon les chiffres du ministère de l’Intérieur, qui note une hausse de 8% par an en moyenne des infractions « numériques » relevant des atteintes aux biens depuis 2016. Mais le développement de ces nouveaux outils d’IA n’inquiète pas tous les experts. « Nous pouvons utiliser l’IA pour l’attaque comme pour la défense », avance ainsi auprès de l’AFP Martin Kraemer, le spécialiste de KnowBe4.
Car si l’intelligence artificielle est devenue le meilleur allié des arnaqueurs, elle sert aussi à débusquer les fraudes. Julien Bouverot, directeur général de l’Olivier assurance, utilise un logiciel d’IA pour passer au crible les documents et les images envoyées par les sinistrés ou prétendus sinistrés. « Quelqu’un nous dit que cet ordinateur a été endommagé lors d’un sinistre. Là, l’outil va nous remonter que c’est une image qui n’est absolument pas celle d’un assuré. C’est une image publique disponible sur Internet », montre-t-il.
Grâce à cette IA, l’entreprise a pu détecter et enquêter sur plusieurs milliers de dossiers suspects, dont de nombreuses tentatives de fraude à l’assurance automobile. « Typiquement, ici, on a reçu une photo d’un assuré qui nous dit que son véhicule était stationné, qu’il a été percuté par un autre véhicule et que ce sont les dommages qui ont été générés. Ça, c’est pareil. L’outil va nous expliquer que ce dommage n’est pas possible, n’est pas crédible en stationnement ». En cas de fraude avérée, le dédommagement n’est bien sûr pas versé. La compagnie d’assurance dit ainsi avoir pu économiser entre 5 et 10 millions d’euros l’an dernier.