La start-up américaine d’intelligence artificielle (IA) Anthropic a accepté de verser au moins 1,5 milliard de dollars (1,28 milliard d’euros environ) à un fonds d’indemnisation d’auteurs, ayants droit et éditeurs qui poursuivaient l’entreprise pour avoir téléchargé illégalement des millions de livres, selon un document de justice publié vendredi 5 septembre. Cet accord amiable, d’un montant colossal, constitue une étape marquante dans le débat sur l’utilisation de données pour développer et entraîner les grands modèles d’IA générative.
Un trio d’auteurs – la romancière de thrillers Andrea Bartz et les écrivains de non-fiction Charles Graeber et Kirk Wallace Johnson – ont intenté une action en justice l’an dernier et représentent désormais un groupe plus large d’écrivains et d’éditeurs dont les livres auraient été téléchargés par Anthropic pour entraîner son chatbot Claude.
Fin juin, le juge californien saisi du dossier avait néanmoins estimé que le fait d’alimenter un logiciel d’IA générative avec des œuvres en théorie protégées par le droit d’auteur ne constituait pas une infraction. Il avait seulement retenu contre Anthropic le téléchargement et le stockage de livres issus de librairies pirates en ligne, reconnaissant la société californienne coupable de ne pas avoir acheté ces ouvrages.
Le montant sur lequel se sont accordées les parties sera au minimum de 1,5 milliard de dollars et pourrait augmenter si la liste définitive des livres concernés, qui n’est pas encore arrêtée, dépassait 500 000, auquel cas Anthropic verserait 3 000 dollars (soit 2 500 euros environ) de plus par ouvrage.
Accord qui doit être homologué par la justice
Vendredi, Mary Rasenberger, directrice générale de l’Authors Guild, a qualifié l’accord de « résultat excellent pour les auteurs, les éditeurs et les titulaires de droits en général, envoyant un message fort à l’industrie de l’IA : il y a de graves conséquences lorsqu’elle pirate les œuvres des auteurs pour entraîner ses intelligences artificielles, privant ainsi de revenus ceux qui peuvent le moins se le permettre ».
L’accord doit encore être homologué par le juge fédéral, William Alsup. Une audience est prévue, lundi, au tribunal fédéral de San Francisco. Cette transaction permet à Anthropic d’éviter un procès, qui devait démarrer début décembre pour déterminer le montant des dommages et intérêts.
La start-up risquait d’être condamnée à débourser une somme bien supérieure à celle décidée avec les détenteurs de droit, au point de mettre en péril son existence même.
De nombreux autres dossiers sont encore en cours devant des tribunaux américains, initiés par des écrivains, musiciens ou éditeurs de presse pour utilisation non autorisée de leur production. La plupart des grands acteurs de l’IA générative s’appuient sur la notion juridique d’utilisation équitable (« fair use » en anglais), susceptible de limiter l’application du droit de propriété intellectuelle.
Un début « marquant et historique »
Dans sa décision de juin, le juge Alsup avait estimé qu’en entraînant ses modèles d’IA avec des milliers de livres, Anthropic s’inscrivait dans le cadre de l’utilisation équitable. « Le principe juridique selon lequel le développement de l’IA sur des œuvres protégées relève d’une utilisation équitable demeure intact », a souligné une porte-parole d’Anthropic. Cet accord « ne fait que régler un différend sur la façon dont certains documents ont été obtenus », a-t-elle poursuivi. « Nous pensons que cet accord va nous permettre de nous concentrer sur notre mission essentielle, plutôt que sur un long contentieux », a-t-elle ajouté.
En juin, dans une autre affaire de ce type, concernant Meta, devant la même juridiction, un autre magistrat fédéral avait donné raison au géant des réseaux sociaux, mais tout en expliquant que les plaignants auraient pu soulever des arguments recevables.
Les créateurs de contenu, qu’il s’agisse de musique, de livres ou d’articles, s’inquiètent de voir la valeur marchande de leur travail s’effondrer avec l’émergence des interfaces d’IA générative.
« Nous espérons qu’il s’agisse du premier exemple d’une longue série de sociétés d’IA à qui on demande des comptes pour le vol de contenu créatif », a réagi l’organisation Human Artistry Campaign, qui milite pour un développement responsable de l’IA. « Ce n’est qu’un début », a écrit l’association sur X, « mais il est marquant et historique. »