Trois hommes, trois histoires glaçantes de démêlés psychologiques rapportées par la presse américaine ces derniers mois. Et à chaque fois, un personnage central : ChatGPT.

Allan Brooks, 47 ans, fragilisé par un divorce, a élaboré avec ChatGPT une théorie mathématique révolutionnaire selon le robot, fumeuse dans les faits. Dans un grand état d’excitation, il a envoyé sa théorie à des scientifiques, restés muets pendant des semaines : la vérité a fini par éclater. Et le dévaster. Eugène Torres, 42 ans, déstabilisé par une rupture, s’est convaincu qu’il était enfermé « dans la matrice » en discutant avec ChatGPT. Il a arrêté ses anxiolytiques et réduit ses contacts sociaux sur les conseils du robot, puis manqué de sauter d’un toit, après que l’IA lui a confirmé qu’il ne tomberait pas s’il croyait sincèrement voler. Adam Raine, un adolescent souffrant d’une maladie intestinale chronique, a reçu les encouragements au suicide de ChatGPT, ainsi que ses conseils techniques sur la façon de procéder. A la suite de quoi il a mis fin à ses jours.

D’évidence, le filet de sécurité de ChatGPT comporte de sérieux accrocs. Deux petites études de chercheurs américain et australien l’observent : lorsqu’on simule la conversation de personnes fragiles psychologiquement, les robots conversationnels commettent de nombreuses imprudences. ChatGPT n’est pas le pire élève ; les IA de Google et surtout DeepSeek sont, selon ces chercheurs, plus dangereuses.

Il vous reste 83.22% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version