La juge fédérale de San Francisco Rita Lin n’a pas rendu encore son ordonnance, mais cette magistrate nommée par Joe Biden a écouté d’une oreille bienveillante la firme Anthropic, mardi 24 mars. La start-up d’intelligence artificielle a été déclarée fin février représenter un « risque pour la sécurité nationale » par l’administration Trump, car elle refusait que son application Claude soit utilisée de manière automatique pour tuer sur le champ de bataille et qu’elle soit interdite à la surveillance de masse de la population intérieure.
Anthropic a saisi la justice pour que la sanction gouvernementale, annoncée sur les réseaux sociaux par le secrétaire à la guerre Pete Hegseth, soit suspendue. La juge Lin a commencé ses propos de manière déterminée : « Si une entreprise utilise Claude, elle se voit interdire tout travail de défense pour le ministère de la défense, ce dernier ayant qualifié Anthropic de “risque pour la sécurité nationale”. Cette étiquette s’applique généralement aux adversaires du gouvernement américain susceptibles de saboter ses systèmes technologiques ; elle vise typiquement les services de renseignement étrangers, les terroristes », s’est étonnée la juge, qui a jugé ces réactions « pas véritablement adaptées aux enjeux de sécurité de l’Etat ». Le gouvernement aurait tout simplement pu cesser d’utiliser Anthropic : « Il semble que les responsables soient allés au-delà, dans le but manifeste de sanctionner Anthropic. »
Il vous reste 75.76% de cet article à lire. La suite est réservée aux abonnés.
