La question de la modération des contenus a toujours été un casse-tête pour Facebook. L’entreprise a dès le départ été prise entre deux feux. D’une part, sa réticence – issue de sa culture essentiellement américaine – à censurer les discours, ainsi que les coûts financiers et politiques importants attachés à cette activité. D’autre part, la nécessité très pragmatique de limiter les pressions – parfois contradictoires – exercées par la société civile, le personnel politique, voire les annonceurs, dont elle tire l’essentiel de ses revenus.

Résultat : des politiques de modération à géométrie variable, faite d’expérimentations diverses et de revirements variés. Les dernières annonces de Mark Zuckerberg, mardi 7 janvier, parmi lesquelles la suppression d’un programme de fact-checking ou l’assouplissement des règles contre les discours haineux, n’échappent pas à la règle.

« L’automatisation est la solution »

Apparue au milieu des années 2010, la détection automatique des contenus contrevenant aux règles de Facebook a longtemps été présentée par les cadres de l’entreprise comme une solution miracle – rapide voire préemptive, peu coûteuse, applicable à l’échelle des milliards d’utilisateurs du réseau – aux contenus problématiques.

Facebook puis Meta ont ainsi investi d’importantes ressources dans le développement d’algorithmes capables de « comprendre » les textes postés par leurs utilisateurs. D’abord peu fiables, réservés aux contenus les plus faciles à modérer, comme les images à caractère sexuel, ils ont peu à peu été étendus à un nombre croissant de types de contenus, notamment ceux qui nécessitent de la nuance et une compréhension fine du contexte, comme les discours haineux.

Même si le recours à cette technologie a été critiqué à juste titre – pour être inefficace, pour censurer trop ou pas assez –, elle a pris une place centrale dans le dispositif de modération de la plateforme : soit en supprimant directement des contenus, soit en les portant à la connaissance des modérateurs humains. A cette aune, la décision de Mark Zuckerberg, annoncée ce 7 janvier, de ne plus y avoir recours pour modérer les discours haineux apparaît comme un revirement majeur, à rebours de la stratégie poursuivie par la plateforme depuis une décennie, qui assure régulièrement que l’automatisation est la seule manière efficace de modérer une plateforme de cette taille.

Il vous reste 76.01% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version