- Une vidéo virale du Premier ministre israélien est suspectée d’être générée par intelligence artificielle.
- De nombreux détails sont présentés, à tort, comme des erreurs de l’IA.
- Des experts confirment aux Vérificateurs que la vidéo ne présente pas de signe de manipulation.
Suivez la couverture complète
L’info passée au crible des Vérificateurs
C’est l’argument qu’on voit partout ces dernières heures et qui donne lieu aux théories les plus folles. Tout a commencé jeudi 12 mars avec la vidéo d’un discours de Benyamin Netanyahou (nouvelle fenêtre). De nombreux internautes pensaient voir jusqu’à six doigts (nouvelle fenêtre) à sa main, ou des dents manquantes (nouvelle fenêtre), détails pouvant être caractéristiques de contenus générés par intelligence artificielle. Selon ceux qui partagent ces analyses, pas de doute : le Premier ministre israélien serait blessé ou mort, et les autorités israéliennes diffuseraient de fausses vidéos. Des rumeurs alimentées par une absence de communication d’environ 48 heures de la part du chef du gouvernement israélien, alors que l’Iran a affirmé vouloir coûte que coûte l’éliminer (nouvelle fenêtre).
Pour couper court aux rumeurs, Benyamin Netanyahou a ainsi diffusé dimanche une vidéo le montrant dans un café de Jérusalem (nouvelle fenêtre), en train de siroter un cappuccino, et ironisant sur le fait qu’il avait bien cinq doigts (nouvelle fenêtre). Mais loin de calmer les ardeurs, sa vidéo a suscité encore plus de réactions d’internautes tentant de prouver que ce nouveau contenu était lui aussi généré par IA. Selon Visibrain, plateforme de veille des réseaux sociaux, les discussions autour d’une vidéo de Netanyahou générée par IA ont suscité plus de 236.000 messages en à peine quatre jours.
Alors, que peut-on dire sur cette vidéo ? Nous l’avons soumise à analyse, et avons vérifié plusieurs arguments publiés par les partisans d’une vidéo générée par IA.
Pas de signe de manipulations, selon des experts
Immédiatement après sa diffusion, des internautes se sont tournés vers des détecteurs d’IA grand public en ligne pour vérifier si Benyamin Netanyahou n’avait pas publié une nouvelle fausse vidéo. Plusieurs captures d’écran comme ici (nouvelle fenêtre) ou là (nouvelle fenêtre) montrent que certains de ces détecteurs affirment que la vidéo est générée par IA avec un degré de certitude plus ou moins élevé. Pour ajouter à la confusion, des internautes ont relayé des affirmations tenues par le robot conversationnel de X, Grok (nouvelle fenêtre), lui aussi affirmant que la vidéo était générée par IA (nouvelle fenêtre).
Contactée par l’équipe des Vérificateurs, la société GetReal Security (nouvelle fenêtre), spécialisée dans la détection de contenus manipulés, a procédé à l’analyse de la vidéo. Emmanuelle Saliba, responsable des investigations pour GetReal, explique que leurs modèles n’ont rien détecté. « Nous avons effectué une analyse multimodale des données biométriques audio, vidéo, faciales et vocales. Notre plateforme n’a détecté aucun signe de contenu synthétique ni de manipulation dans les enregistrements audio ou vidéo. »
De son côté, Quentin Bammey, chercheur en détection de falsification d’images à Telecom Paris, souligne que de nombreux détails concordants seraient assez difficiles à réaliser avec IA. Il note notamment « la mousse de café qui se déforme après avoir été bue »
ou encore « le téléphone qui filme »
dont on voit bien des contenus cohérents sur l’écran. Il estime que les « textures sur le visage de Netanyahou sont assez plates »,
mais explique cela par un éclairage frontal d’intérieur. Il explique que générer un contenu de la sorte, notamment cohérent sur une telle longueur, serait difficile sans une équipe d’experts.
Comme nous l’expliquions dans cet article pour repérer les contenus générés par IA, les détecteurs grand public sont effectivement encore assez peu fiables, et accouchent fréquemment de faux positifs.
De faux arguments pour étayer la théorie
Par ailleurs, la venue de Benyamin Netanyahou a été documentée par de très nombreuses photos et vidéos. Postées par des sources différentes des autorités israéliennes, elles prouvent une consistance entre tous les éléments, comme les personnes présentes ou les vêtements portés. Le café où s’est rendu le Premier ministre israélien a notamment posté plusieurs photos (nouvelle fenêtre), tout comme d’autres proches du Premier ministre israélien (nouvelle fenêtre) présents lors du déplacement. Des photos analysées par GetReal Security de même que par notre équipe, et qui ne présentent aucun signe de création par IA.
Cela n’a pourtant pas suffi aux partisans d’un contenu synthétique qui ont redoublé d’efforts pour prouver que toute cette visite était fausse. Certains ont même utilisé des arguments généralement utilisés pour détecter des vidéos générées par IA. Beaucoup d’utilisateurs affirment ainsi que sur une caisse enregistreuse serait visible la date « 2024 », prouvant que la séquence serait soit vieille, soit qu’il s’agirait d’une erreur de l’IA. Mais nous avons pu isoler des images venant de la vidéo haute définition prouvant que le nombre sur la caisse est bien « 2026 », indiquant que la scène a bien été filmée récemment.

De même, selon les partisans d’une vidéo par IA, sur l’écran d’un téléphone, on verrait une personne qui n’apparaît pourtant pas sur les images diffusées. Des sachets de thé orange seraient aussi différents d’une image à l’autre. Mais en réalité, la personne est bien présente dans les images, et apparaît de façon très courte dans l’extrait vidéo posté par Benyamin Netanyahou. Par ailleurs, l’angle du téléphone, filmant d’autres objets, ne permet pas de filmer les fameux sachets de thé, disposés sur une étagère bien plus haute.

Autre argument des partisans d’une mise en scène : une inscription en hébreu (nouvelle fenêtre) qui « n’aurait aucun sens »
, selon certains. Sur cette photo diffusée par le café, on lit « Vous avez une entreprise gérée par des réservistes »
, une formulation jugée curieuse pour un établissement servant des boissons chaudes.
Pourtant, cette affiche est tout à fait authentique : il s’agit d’une campagne pour recruter des réservistes indépendants (nouvelle fenêtre), dont celle-ci est sponsorisée par le média Channel 12, dont on voit le logo sur l’affiche.

Enfin, cette autre image est utilisée pour prouver que des détails n’étaient pas cohérents : un garde du corps de Netanyahou, au second plan (nouvelle fenêtre), n’aurait pas la même veste d’une image à l’autre, preuve supposée d’un subterfuge.
Mais en réalité, la version où celui-ci arbore une veste grise a été modifiée par IA pour améliorer la netteté. « Cela ajoute des contenus bizarres qui ne sont pas présents dans les images originales »
, reconnaît de lui-même une des personnes qui a partagé la photo (nouvelle fenêtre).

Toutes les discussions autour de cette vidéo du Premier ministre israélien montrent comment la confusion autour des contenus par intelligence artificielle permet d’accuser de vraies vidéos d’être fausses. « Ceux qui affirment que cette vidéo est de l’IA n’ont pas regardé les images en haute qualité, soit parce qu’ils essaient simplement de trouver quelque chose qui ne va pas dans les images, soit parce qu’ils n’ont pas fait l’effort d’aller les chercher »
, analyse Tal Hagin, journaliste indépendant spécialiste de la vérification des contenus visuels. Il explique que le niveau de détails des vidéos et des photos permet de voir de nombreux détails que des outils d’IA, aussi perfectionnés soient-ils, ne pourraient pas fabriquer à ce jour.
Benyamin Netanyahou a de nouveau posté une vidéo plus longue, lundi 16 mars, où il rencontre des clients d’un café, en extérieur cette fois. Une vidéo d’ores et déjà accusée par certains d’être de l’IA (nouvelle fenêtre), sans véritable argument.
Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse [email protected]. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.








