Une vidéo apparue lundi prétend montrer un message laissé par Alain Delon après sa mort.
On entend l’acteur proposer de répartir une partie de son héritage grâce à une application en ligne.
Il s’agit d’une arnaque réalisée grâce à l’intelligence artificielle.
Suivez la couverture complète
L’info passée au crible des Vérificateurs
L’offre est trop belle pour être vraie. Et elle cache en réalité une arnaque. Dans une vidéo notamment publiée sur Facebook, Alain Delon propose de donner aux Français 100.000 euros après sa mort. Face caméra, sur fond de musique angoissante, l’acteur décédé le dimanche 18 août affirme que les joueurs qui téléchargeront l’application dès le premier jour de sa mise en ligne pourront gagner jusqu’à 4000 euros issus de son héritage. « Tout ce que vous avez à faire, c’est recharger votre compte et de trouver Pinco. Je laisserai le lien vers l’application sous la vidéo », conclut-il. Sauf que les images ont été créées par l’intelligence artificielle.
Une arnaque de plus en plus répandue
La séquence est apparue sur Facebook et Instagram, deux plateformes de l’entreprise Meta. À chaque fois, elle est accompagnée d’un lien proposant de télécharger l’application « Casino Delon » qui aurait été développée par la fille de l’acteur français. Si le lien renvoie vers une page qui ressemble à une boutique officielle de téléchargement, elle cache en réalité une arnaque. Avant de pouvoir accéder au jeu en ligne, un premier dépôt d’argent est demandé « en raison du grand intérêt suscité par l’opportunité d’obtenir 10.000 euros dans les casinos en ligne et l’augmentation du nombre d’inscriptions ». Une fois le virement réalisé, non seulement la somme disparaît dans les mains d’escrocs, mais ces derniers récupèrent en plus vos coordonnées bancaires.
Car Alain Delon n’a jamais enregistré ce message. Il a en réalité été généré par une intelligence artificielle capable d’apprendre les mouvements et la voix d’une personne afin de les reproduire. C’est ce qu’on appelle des « deepfake ». Avec des outils devenus très accessibles, ces derniers sont non seulement de plus en plus nombreux, mais aussi de plus en plus crédibles. Si la majorité de ces vidéos sont désormais supprimées, nous avons recensé dans la bibliothèque publicitaire de Meta 14 publications qui tentaient de surfer sur la mort d’Alain Delon. Parmi elles, cinq proposaient cette fausse application de casino.
Pub d’une arnaque sur Facebook, exploitant la mort d’Alain Delon Ca va trop loin… pic.twitter.com/22SmSqSowt — Méta-Brouteur (@Metabrouteur) August 26, 2024
Ce n’est pas la première fois que le visage d’une célébrité est détourné pour escroquer des internautes peu aguerris. En janvier dernier par exemple, nous vous avions alerté sur une fausse publicité dans laquelle Taylor Swift faisait la promotion de batteries de cuisine françaises. Avant la star de la pop, l’acteur Tom Hanks avait été utilisé pour promouvoir des soins dentaires et le visage d’Elon Musk instrumentalisé pour défendre la cryptomonnaie. La présentatrice Oprah Winfrey avait quant à elle servi à une escroquerie pour vanter un régime minceur avec des vitamines. Au total, le journaliste Victor Baissait, expert de l’IA et des escrocs en ligne, a recensé 448 vidéos de ce type uniquement en français depuis juin 2023.
Des astuces pour ne pas tomber dans le piège
À chaque fois, la technique est la même : s’appuyer sur les progrès fulgurants de l’intelligence artificielle. En avril déjà, le Better Business Bureau avait averti les consommateurs que les escroqueries avec des vidéos générées par IA étaient devenues « plus convaincantes que jamais ». Alors comment ne pas se faire avoir ? Comme nous vous l’expliquions ici, certaines astuces permettent encore de reconnaître ces deepfakes.
Les indices visuels, d’abord, avec de petites anomalies au niveau du visage et plus précisément de la bouche. Dans la vidéo d’Alain Delon, les traits sont figés, les lèvres bougent d’une manière peu naturelle. Les dents sont également alignées de manière incohérente, voire disparaissent à certains moments. La voix peut aussi permettre d’identifier un extrait manipulé. Soit parce qu’elle ne correspond pas à celle de la personne visible sur les images, soit parce que le mouvement des lèvres ne respecte pas le rythme des paroles. Dans le cas de la fausse vidéo de l’acteur, la voix semble hachée, robotique. Enfin, le meilleur réflexe est de remonter à la source. Ici, la publication renvoie vers le site « polonline.top ». Un nom de domaine créé le 15 août, soit trois jours avant la mort d’Alain Delon.
Face à ces contenus trop beaux pour être vrais, la vigilance se révèle donc précieuse. Et en cas de doute sur une publicité, n’hésitez pas à la signaler aux plateformes.
Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse [email protected]. Retrouvez-nous également sur Twitter : notre équipe y est présente derrière le compte @verif_TF1LCI.