Les algorithmes de recommandation se sont discrètement installés dans notre quotidien. Sur les réseaux sociaux tels que X, Facebook, Instagram ou LinkedIn, ils remplacent ou complètent le simple déroulé antéchronologique (du plus récent au plus ancien) des messages postés par des comptes que nous avons décidé nous-mêmes de suivre. En fonction de la personnalité de l’utilisateur, ils mettent en avant certains messages et en invisibilisent d’autres, pourtant parfois postés par des comptes suivis.
Ces fils personnalisés sont conçus pour maximiser l’engagement des utilisateurs : clics, « j’aime », réponses, partages, temps passé, achats… Les inquiétudes quant à leurs effets sociaux et politiques sont donc légitimes : en cherchant à capter l’attention, ils peuvent privilégier des contenus extrêmes, polarisants ou toxiques. Ils peuvent aussi renforcer des croyances existantes, y compris des idées fausses, et alimenter des environnements informationnels polarisés, souvent décrits comme des « bulles de filtres ».
Jusque-là, aucun travail scientifique n’avait démontré que ces algorithmes modifiaient les comportements des utilisateurs des réseaux sociaux. Mais dans une étude menée avec mes collègues Germain Gauthier, Roland Hodler et Philine Widmer, et que nous venons de publier, le 18 février, dans Nature, nous démontrons que l’activation du fil « Pour vous » sur X aux Etats-Unis déplace des opinions politiques dans un sens favorable aux républicains, alors que sa désactivation n’entraîne pas de « retour en arrière ». Oui, l’algorithme modifie durablement l’environnement informationnel des utilisateurs, en les incitant à suivre davantage de comptes politiques, avec une prédilection pour ceux qui penchent à droite.
Position favorable au Kremlin
Nos résultats remettent en cause les conclusions rassurantes qui avaient été trop hâtivement tirées des recherches antérieures, et notamment d’une étude de grande ampleur, publiée en 2023 dans Science. Celle-ci constatait que les attitudes politiques ne sont pas affectées par la désactivation des algorithmes de recommandation. Menée pendant l’élection présidentielle américaine de 2020, en coopération avec Meta (Facebook, Instagram…), elle montrait que remplacer un fil algorithmique par un fil chronologique n’avait pas d’effet mesurable sur les attitudes politiques. Beaucoup en ont déduit que les inquiétudes étaient exagérées : Facebook n’avait pas « fait élire » Donald Trump en 2016. Mais peut-on juger de l’impact d’un algorithme en observant seulement ce qui se passe quand on le désactive ?
Il vous reste 58.65% de cet article à lire. La suite est réservée aux abonnés.

