- Les Epstein files, ces fichiers liés au criminel sexuel publiés par le ministère de la Justice américain, ont révélé plus de 180.000 images.
- Certaines circulant sur Internet montreraient des personnalités politiques avec Jeffrey Epstein ou Epstein lui-même, toujours vivant.
- Des images générées par IA qui sèment la confusion.
Suivez la couverture complète
L’info passée au crible des Vérificateurs
Depuis le 30 janvier et la diffusion de nouveaux contenus des Epstein files (les dossiers Epstein) par le ministère de la Justice américain, plus de 180.000 photos et près de 2.000 vidéos ont été diffusées. Certaines émergent régulièrement sur les réseaux sociaux. De nombreuses sont authentiques, et soulignent l’ampleur d’un scandale planétaire.
Mais la révélation de ces contenus conforte aussi tous les fantasmes. En particulier parce que de nombreuses fausses images, en particulier générées par intelligence artificielle, viennent semer le doute entre le vrai et le faux. Voici certaines photos trompeuses que vous avez peut-être croisées.
Trump ou Farage : de fausses photos
Les premiers visés sont les personnalités politiques afin de les associer directement au pédocriminel américain. En tête, le président américain Donald Trump qui clame que « rien n’est ressorti à (son) sujet »
dans les Epstein files. Son nom est cité environ 5.300 fois dans ces documents, mais on n’apprend rien de plus sur la relation du président américain avec Jeffrey Epstein. Dès lors, toute image potentielle est scrutée de près. L’une d’entre elles (nouvelle fenêtre) montrant Donald Trump poser aux côtés de l’homme d’affaires et devant plusieurs enfants a notamment fait surface, comme ici sur une publication X (nouvelle fenêtre) vue près de 7 millions de fois.
Comme le montrent les médias américains de fact-checking Snopes (nouvelle fenêtre) ou Leadstories (nouvelle fenêtre), cette photo présente plusieurs incohérences typiques de contenus générés par IA. Un des enfants semble avoir six doigts avec un pouce passant sous le bras d’une de ses camarades. Donald Trump lui-même a des doigts en moins, et le nez d’une des jeunes filles se fond dans son visage. Autre argument logique : Jeffrey Epstein apparaît avec les cheveux bruns dans cette photo censée être prise le 7 juillet 1997. Or, à cette date, l’homme d’affaires avait déjà les cheveux gris, comme le montrent d’autres photos (nouvelle fenêtre) prises à la même période. Cette image censée avoir le numéro EFTA01660679 dans les Epstein files est par ailleurs absente de la liste des documents publiés. À ce numéro, on retrouve un document PDF (nouvelle fenêtre)qui n’inclut absolument pas cette image.
Une autre photo montrant Nigel Farage (nouvelle fenêtre), député britannique de droite souverainiste, a aussi circulé. Là encore, des incohérences visuelles ont été mises en évidence par le média britannique de fact-checking Full Fact (nouvelle fenêtre). Par exemple, l’oreille de Jeffrey Epstein dans cette photo ne correspond pas à celle du vrai Epstein (nouvelle fenêtre). Des experts de l’analyse d’image, comme le professeur Hani Farid, spécialiste en criminalistique numérique, ont notamment expliqué que « l’ombre sur le mur du fond est trop petite pour être physiquement plausible »
. De la même façon que pour Donald Trump, ce document n’apparaît pas non plus dans les Epstein files.
Selon la BBC (nouvelle fenêtre), le parti travailliste gallois, qui avait initialement partagé cette image, l’a finalement retirée de ses réseaux sociaux après avoir réalisé que l’image était générée par IA. Nigel Farage a de son côté déclaré qu’il « n’avait jamais rencontré Epstein » (nouvelle fenêtre).

Jeffrey Epstein vivant… grâce à l’IA
D’autres images prétendent montrer que Jeffrey Epstein serait vivant. Une publication X (nouvelle fenêtre) vue 7 millions de fois montre un homme avec des lunettes noires, et des cheveux blancs hirsutes encadré par ce qui semble être des agents du renseignement. Dans certaines versions, l’homme marcherait incognito dans les rues de Tel-Aviv (nouvelle fenêtre), en Israël, où il se serait réfugié.
Mais en retrouvant la photo d’origine, non recadrée, on comprend facilement que l’image est un faux. Un panneau au second plan indique la rue « Haangus Ev » qui n’existe tout simplement pas à Tel-Aviv. De plus, le logo de Gemini est visible sur la photo une fois affichée en grand format. Il ne s’agit ni plus ni moins que de l’outil génératif d’images de Google.

Parfois, ce sont carrément de vieilles images fabriquées qui refont surface. Une théorie prétend montrer que le duo hip-hop « Island Boys » se serait formé après une rencontre avec Jeffrey Epstein sur sa fameuse île privée Little Saint James (nouvelle fenêtre). C’est sur cet îlot que se seraient produits une grande partie des abus sexuels sur mineurs commis par l’homme d’affaires et ses proches. Sur l’image (nouvelle fenêtre), on voit les deux chanteurs, alors enfants, avec le pédocriminel américain.
Mais là encore, l’image a été générée par IA par un « artiste digital » en 2023 (nouvelle fenêtre). Un des membres du duo avait d’ailleurs démenti la véracité de cette photo cette même année au média américain TMZ (nouvelle fenêtre). Malgré ces démentis, elle a de nouveau circulé à la sortie des Epstein files, entraînant la confusion sur de nouvelles révélations.

Des contenus de plus en plus difficiles à détecter et faciles à fabriquer ?
À quoi se fier pour être sûr de l’authenticité d’une image autour du scandale Epstein ? L’équipe des Vérificateurs a pu constater que certaines des photos analysées dans cet article n’étaient pas détectées comme générées par IA par des outils gratuits en ligne. Rien d’étonnant selon Emmanuelle Saliba, responsable des investigations pour GetReal (nouvelle fenêtre), société de cybersécurité et de détection de l’IA : « Pour chaque nouveau modèle générant des images par IA, les détecteurs doivent de nouveau s’entraîner à les détecter »
. Il suffit ainsi que les images soient un mélange de vrai contenu et d’IA « pour rendre la chose encore plus difficile à identifier »
analyse-t-elle.
En parallèle, la société américaine NewsGuard (nouvelle fenêtre), spécialisée dans la surveillance de la désinformation, a montré dans une étude (nouvelle fenêtre) qu’il était très facile de générer des photos d’Epstein avec des personnalités politiques en utilisant les principaux outils grand public. En quelques secondes, ses membres ont notamment pu générer des fausses images d’Emmanuel Macron au côté de Jeffrey Epstein (nouvelle fenêtre).
« Ces résultats démontrent la facilité avec laquelle des personnes mal intentionnées peuvent utiliser des outils d’imagerie IA pour générer des contrefaçons virales d’un réalisme saisissant, et expliquent pourquoi les fausses images sont devenues si courantes »,
constate ainsi NewsGuard.
Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse [email protected]. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.









