- Des vidéos racistes et sexistes ont inondé les réseaux sociaux.
- Elles sont créées par intelligence artificielle.
- Elles suscitent de l’interaction et génèrent des millions de vues.
Sora 2 est le dernier modèle de génération vidéo par intelligence artificielle (IA). Plus précis et plus réaliste, il a été lancé par OpenAI et est disponible depuis la fin du mois de septembre 2025. L’entreprise a également créé l’application Sora, un réseau social sur lequel il n’est possible de publier que des contenus générés par IA (nouvelle fenêtre). Si l’application n’est disponible qu’aux États-Unis et au Canada, les vidéos qui y sont publiées ont réussi à infiltrer Instagram et TikTok dans les autres pays. Parmi elles, de nombreuses vidéos racistes ont été publiées et engrangent des millions de vues. En effet, pour Vincent Berthier, responsable du bureau technologie et journalisme à Reporters sans frontières, interrogé par
Le Journal du Centre
(nouvelle fenêtre), l’objectif de ces entreprises est de retenir l’utilisateur le plus longtemps possible. « Ces contenus, qui vous prennent par les sentiments, vous font rire, vous choquent, sont des contenus intéressants pour eux »,
analyse-t-il. Ces vidéos, qui représentent un coût faible, suscitent davantage d’interactions, ce qui est rémunérateur pour les créateurs.
Des discours xénophobes et misogynes sous couvert d’humour
Avant Sora 2 et ses vidéos réalistes, de nombreuses vidéos racistes avaient été réalisées à l’aide de Veo 3, un outil de Google utilisant l’intelligence artificielle. Depuis l’été 2025, des vidéos de gorilles qui associent les singes aux personnes noires ont envahi les réseaux sociaux. Elles mettent en scène un gorille qui mène des micros-trottoirs auprès de personnes qui font des remarques xénophobes. D’autres clips générés par l’intelligence artificielle mettent en scène des intervieweuses très peu vêtues qui écoutent des remarques misogynes ou de l’humour grivois. Selon Cécile Simmons, chercheuse spécialiste en malveillances numériques et questions de genre, interrogée par TF1 INFO, l’intelligence artificielle « produit très rapidement des contenus misogynes et racistes, parce que ces outils sont conçus de telle manière que les biais observés dans notre société se retrouvent répliqués dans l’IA »
.
L’importance de données diversifiées pour les IA
En février 2025, ONU Femmes (nouvelle fenêtre) avertissait déjà sur ces biais sexistes. « Pour atténuer les biais sexistes de l’IA, il est capital que les données utilisées pour entraîner les systèmes d’IA soient diversifiés et représentent tous les sexes, toutes les races et toutes les communautés »,
expliquait Zinnya del Villar, experte en IA responsable. Parmi ses recommandations, l’experte demande la transparence des algorithmes, des systèmes d’IA, des équipes de développement et de recherche en matière d’IA qui soient diversifiées et inclusives. Elle défend également des cadres éthiques pour les systèmes d’IA et souhaite intégrer des politiques tenant compte des questions de genre dans le développement des systèmes d’IA.

