- Le suspect de l’attaque au couteau menée samedi dans un train dans l’est de l’Angleterre a été inculpé de tentatives de meurtre.
- Sur les réseaux sociaux, des vidéos prétendent montrer le moment de l’attaque.
- En réalité, il s’agit de contenu généré par intelligence artificielle.
Suivez la couverture complète
L’info passée au crible des Vérificateurs
Le suspect de l’attaque au couteau menée samedi dans un train dans l’est de l’Angleterre a été inculpé de tentatives de meurtre contre dix personnes. Anthony Williams, 32 ans, a également été inculpé pour une autre tentative de meurtre ayant eu lieu le même jour à Londres. Depuis, des vidéos prétendant montrer le moment même de l’attaque sont partagées sur les réseaux sociaux, comme dans cette publication sur X (nouvelle fenêtre) vue plus de 139.000 fois. Les Vérificateurs se sont penchés sur ces images.
En observant les vidéos de plus près, plusieurs indices nous permettent de déterminer qu’il s’agit en réalité de contenu généré par intelligence artificielle (IA). Sur la première vidéo, les contours des personnes et des détails du train ne sont pas nets. À plusieurs reprises, le bras de l’une des passagères, ainsi que le bas du visage de l’un des passagers scintillent, avant de complètement disparaître et réapparaître. La voix de la jeune femme est par ailleurs très robotique.
Sur la deuxième vidéo, le sigle « Sora » (nouvelle fenêtre) et son logo apparaissent brièvement, dans un coin en haut à droite de la vidéo. C’est le nom d’un nouvel outil de création de contenus par IA développé par OpenAI, l’entreprise à l’origine de ChatGPT. Il propose de concevoir des vidéos de neuf secondes à partir de courtes consignes.
Dévoilé le 30 septembre, il est disponible aux États-Unis et au Canada depuis le 1ᵉʳ octobre. Mais contrairement à d’autres logiciels, il insère automatiquement sur tous les clips le logo de l’entreprise. Celui-ci se déplace sur l’image afin qu’il ne puisse pas disparaître en cas de recadrage de l’image, comme l’expliquaient les Vérificateurs dans cet article (nouvelle fenêtre).
Enfin, certains médias, comme la BBC,
(nouvelle fenêtre)
ont eu accès à de vraies images issues des caméras de surveillance. En les comparant, nous constatons que le lieu de l’attaque et le visage de l’assaillant n’ont rien à voir avec ce qui apparaît dans le contenu généré par IA.
Vous souhaitez nous poser des questions ou nous soumettre une information qui ne vous paraît pas fiable ? N’hésitez pas à nous écrire à l’adresse [email protected]. Retrouvez-nous également sur X : notre équipe y est présente derrière le compte @verif_TF1LCI.








