Des vidéos modifiées par intelligence artificielle promeuvent des produits minceurs via des publications sponsorisées sur Facebook.
Les propos de Laurent Ournac, Faustine Bollaert ou Jean-Michel Cohen font la promotion de ces produits dans des interviews détournées.
Une des sociétés commercialisant ces produits affirme être victime d’un de ses affiliés.
Suivez la couverture complète
L’info passée au crible des Vérificateurs
La scène est toujours la même : une star invitée sur un plateau qui dévoile son secret minceur, et montre directement le produit qui permettrait de perdre du poids. Laurent Ournac, Michel Cymès ou encore Faustine Bollaert apparaissent dans ces vidéos publiées majoritairement sur Facebook, en affichant à chaque fois ces produits supposément miracles. L’équipe des Vérificateurs a pu en trouver près de 200 partagées depuis deux semaines dans la bibliothèque des publicités de Meta , recensant toutes les publications sponsorisées sur la plateforme. La grande majorité ciblent essentiellement la France et les territoires d’Outre-mer, comme la Guadeloupe, mais aussi la Belgique et le Luxembourg.
Ces images ont toutes un point commun : ce sont des “deepfakes” ou hypertrucages en français, des vidéos synthétiques ou la voix et les mouvements de lèvres des personnalités sont modifiées pour leur faire prononcer un texte prédéfini. La technique a fréquemment été utilisée dans le cadre d’arnaques, comme récemment pour Alain Delon . Mais dans ces vidéos, une nouveauté : le supposé produit miracle est incrusté graphiquement dans les mains des interlocuteurs. On peut s’en rendre compte en comparant les images avec les vraies séquences. Pour le cas de la vidéo de Laurent Ournac, invité de l’émission C à vous (nouvelle fenêtre) sur France 5, on constate que l’acteur ne tient absolument rien dans sa main lorsqu’il est interviewé.
Victor Baissait (nouvelle fenêtre), expert de l’IA et des escrocs en ligne qui a alerté l’équipe des Vérificateurs sur ces vidéos, explique en avoir repéré quinze. « Le phénomène dure depuis un mois, mais je n’avais jamais vu auparavant des vidéos avec des produits incrustés comme ça dans ce genre de pub. Il ne s’agit pas d’un ‘simple’ ajout avec un logiciel de 3D, de montage : si on regarde attentivement, on voit que le texte sur le médicament change et ne correspond pas à des lettres existantes, ce qui est une caractéristique actuelle des IA. » Le spécialiste explique que certaines mains sont également ratées, comme c’est souvent le cas dans des vidéos générées par intelligence artificielle.
Fil-rouge de ces publications, le docteur Jean-Michel Cohen, lui-même médecin nutritionniste, dont les propos sont fréquemment détournés dans ces vidéos. Présenté comme une caution des produits, ce dernier a expliqué le 16 octobre sur ses réseaux sociaux (nouvelle fenêtre) qu’il n’avait absolument rien à voir avec ces campagnes de publicité. « Je reçois cinq coups de fils par jour à ce sujet, je ne sais plus comment faire pour que les gens arrêtent de m’associer à ces produits », a expliqué Jean-Michel Cohen a l’équipe des Vérificateurs de TF1info. Le 11 décembre, une vingtaine de vidéos deepfakes du même type étaient toujours actives sur Facebook, dont une grande majorité étaient sponsorisées via de fausses pages (nouvelle fenêtre) utilisant le nom et des photos de profil de Jean-Michel Cohen.
Promotions de produits, de comptes Instagram… et potentielles arnaques
L’objectif de ces vidéos est très varié. Certaines invitent les utilisateurs à acheter des produits en rentrant leurs coordonnées de carte bancaire. Rien n’indique que ces produits sont réellement vendus via ces plateformes, et le mécanisme rappelle des arnaques au vol de données déjà observées dans des cas similaires (nouvelle fenêtre). Dans d’autres cas, les vidéos promeuvent des comptes Instagram autour de conseils santé, parfois même des sites de cliniques. Enfin, dans la majorité des cas, les publicités redirigent vers le site internet du produit montré dans la vidéo, insistant sur une offre éphémère. L’équipe des Vérificateurs a pu constater que ces « opérations promotionnelles » sont généralement hébergées sur un serveur en Chine, comme en attestent les informations (nouvelle fenêtre) disponibles en ligne. Elles jouent sur l’aspect urgent de la promotion et renvoient in fine vers les sites officiels du produit.
L’équipe des Vérificateurs a contacté plusieurs entreprises dont les produits apparaissent dans ces vidéos. Seuls les avocats de la société Vallinov SA, propriétaire du site de Slimpal, présenté comme un « brûleur de graisse naturel », nous ont répondu. Ils affirment que l’entreprise n’est pas à l’origine de ces contenus. « Un de [nos] affiliés aurait, en contravention de ses engagements contractuels, eu recours à des ‘deepfakes’ impliquant des personnalités », affirment-ils, soulignant « n’avoir jamais eu recours à des techniques déloyales ou autrement attentatoires aux droits de tiers et prendra toutes mesures utiles ».
S’il n’est pas possible de savoir avec certitude qui est à l’origine de ces hypertrucages, et quel en est l’objectif exact, l’utilisation de l’image ou la parole modifiée d’une personne, sans son consentement, est une infraction passible d’un an de prison et de 15.000 euros d’amende selon la loi française. Lorsque le deepfake est publié « sur un service de communication au public en ligne » comme un réseau social, les peines peuvent alors être portées à deux ans d’emprisonnement et 45.000 euros d’amende. En mai dernier, Michel Cymes avait indiqué assigner en justice Meta (nouvelle fenêtre) pour dénoncer ces « arnaques ». Jean-Michel Cohen nous a de son côté confirmé avoir tenté d’alerter la maison mère de Facebook, mais avoir reçu une fin de non-recevoir, « les contenus n’enfreignant par les règles de sponsorisations », selon la plateforme.
Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse [email protected]. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.