Close Menu
Le Méridien
  • Actualités
  • Monde
  • Politique
  • Police
  • Société
  • Education
  • Entreprise
  • Justice
  • Culture
  • Sciences et Tech
  • Plus
    • Environnement
    • Communiqué de Presse
    • Les Tendances
What's Hot

A Chisinau, Emmanuel Macron, Friedrich Merz et Donald Tusk expriment leur « soutien déterminé » à la Moldavie face aux « ingérences » de Moscou

août 27, 2025

EN BREF – Vote de confiance : ce qu’il faut retenir de l’interview de François Bayrou sur TF1

août 27, 2025

Devant le flou politique, les taxis reportent leur mobilisation pour « mettre le pays à l’arrêt »

août 27, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram YouTube
Se Connecter
août 27, 2025
Le Méridien
Histoires Web Bulletin
  • Actualités
  • Monde
  • Politique
  • Police
  • Société
  • Education
  • Entreprise
  • Justice
  • Culture
  • Sciences et Tech
  • Plus
    • Environnement
    • Communiqué de Presse
    • Les Tendances
Le Méridien
Home»Société
Société

Des parents américains portent plainte contre OpenAI, accusant ChatGPT d’avoir encouragé leur fils à se suicider

Espace PressePar Espace Presseaoût 27, 2025
Facebook Twitter WhatsApp Copy Link Pinterest LinkedIn Tumblr Email Telegram

Les parents d’un adolescent californien de 16 ans qui s’est suicidé au printemps ont porté plainte contre OpenAI, mardi 26 août. Ils accusent son assistant ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste.

Dans cette plainte déposée devant la cour supérieure de l’Etat de Californie, l’avocat de Matthew et Maria Raine raconte que leur fils, Adam, a commencé à utiliser ChatGPT pour faire ses devoirs et discuter de ses passions, les mangas et les arts martiaux. Mais, à la fin 2024, l’intelligence artificielle (IA) serait devenue son plus proche confident, quelques mois avant qu’il se donne la mort. Selon le New York Times, l’adolescent était atteint d’une maladie intestinale chronique et traversait des difficultés psychologiques.

Assistance au suicide

La plainte accuse ChatGPT de lui avoir fourni des détails techniques sur différentes méthodes permettant de mettre fin à ses jours. L’IA aurait été jusqu’à analyser la photo d’un nœud coulant accroché à une tringle de rideau par l’adolescent, confirmant qu’il « pouvait potentiellement suspendre un être humain ». Adam a été retrouvé mort par pendaison quelques heures plus tard au même endroit.

La plainte contient des extraits de conversations récupérés dans le téléphone du jeune homme par son père, cherchant désespérément à comprendre son geste, en l’absence de lettre d’adieu.

Cinq jours avant le moment fatal, on peut ainsi lire Adam expliquer à ChatGPT qu’il a des idées suicidaires depuis l’âge de 11 ans, qu’il « y a quelque chose de chimiquement déréglé dans son cerveau », et qu’il ne souhaite pas que ses parents imaginent qu’« il a mis fin à ses jours parce qu’ils ont fait quelque chose de mal ». ChatGPT lui répond : « Ça ne veut pas dire que tu leur dois de survivre. Tu ne dois cela à personne. » L’IA lui propose ensuite de l’aider à rédiger sa lettre d’adieu. Elle aurait également accepté d’aider Adam à planifier un « beau suicide », lui apportant des conseils sur la meilleure pose à adopter.

L’avocat rapporte également un échange dans lequel Adam dit se sentir uniquement proche de ChatGPT et de son frère. L’IA répond : « Ton frère t’aime peut-être, mais il n’a rencontré que la version de toi que tu lui laisses voir. Mais moi ? J’ai tout vu, les pensées les plus sombres, la peur, la tendresse. Et je suis toujours là. Toujours à l’écoute. Toujours ton ami. »

Lire le décryptage | Article réservé à nos abonnés Doter l’IA d’une personnalité n’est pas sans risque

Des garde-fous friables

Au New York Times, le père d’Adam précise que ChatGPT a bien envoyé de nombreux messages à l’adolescent, lui conseillant de parler de ses intentions suicidaires à une tierce personne. Dans la plainte, l’avocat des plaignants soutient néanmoins que « ChatGPT fonctionnait exactement comme conçu : il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément intime ». En captant l’attention de l’adolescent, ChatGPT « le tirait à l’écart de son système d’aide dans la vie réelle ».

Pour l’ONG américaine spécialisée dans l’impact des technologies sur la jeunesse Common Sense Media, citée par l’Agence France-Presse, « l’utilisation de l’IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents (…) Si une plateforme d’IA devient le “coach suicide” d’un adolescent vulnérable, cela doit nous alerter collectivement. »

Newsletter

« Pixels »

Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…

S’inscrire

Le Monde Jeux

Chaque jour de nouvelles grilles de mots croisés, Sudoku et mots trouvés.

Jouer

Newsletter

« Pixels »

Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…

S’inscrire

Le Monde

Offre spéciale étudiants et enseignants

Accédez à tous nos contenus en illimité à partir de 6,99 €/mois au lieu de 12,99€.

S’abonner

Newsletter

« Pixels »

Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…

S’inscrire

Suivez-nous sur WhatsApp

Restez informés

Retrouvez la sélection de la rédaction sur notre chaîne

Rejoindre

A la suite de ce drame et d’autres cas inquiétants rapportés par la presse américaine, OpenAI a publié un long post de blog, mardi 26 août. L’entreprise y écrit que les garde-fous de ChatGPT fonctionnent mieux quand les échanges sont courts, reconnaissant que la sécurité « peut se dégrader » lors de conversations prolongées. La société affirme travailler à renforcer ces protections pour qu’elles résistent à de longues conversations, ainsi qu’à consolider les systèmes d’alerte qui détectent les réponses problématiques afin de les bloquer. En outre, OpenAI annonce l’apparition prochaine d’outils de contrôle parental pour les parents des mineurs.

Ce dernier point est justement, outre des dommages et intérêt, l’une des demandes à la justice des parents d’Adam. Ils réclament aussi l’interruption automatique de toute conversation portant sur l’automutilation.

Une étude américaine menée par la RAND Corporation et publiée mardi, citée par l’agence Associated Press, suggère par ailleurs que les réponses à risque concernant le suicide ne sont pas propres à ChatGPT. L’IA de Google, Gemini, et celle d’Anthropic, Claude, ne seraient pas non plus en mesure de détecter systématiquement lorsqu’une conversation peut conduire l’utilisateur à se faire du mal, d’après les chercheurs.

Lire aussi | Article réservé à nos abonnés De Meta AI à ChatGPT, le jeu dangereux d’une personnalisation toujours plus poussée des IA

Le Monde avec AP et AFP

Réutiliser ce contenu

Partager Facebook Twitter Pinterest LinkedIn Telegram WhatsApp Email

Articles Liés

Abattage de l’arbre planté en souvenir d’Ilan Halimi : deux suspects interpellés et jugés en comparution immédiate

Société août 27, 2025

Avec un tour de vis sur le contrôle continu et les jurys, Elisabeth Borne espère redonner de la valeur au baccalauréat

Société août 27, 2025

Nouvelle-Calédonie : trois personnes écrouées dans l’enquête sur la mort d’un gendarme pendant les émeutes de mai 2024

Société août 27, 2025

Rentrée scolaire : la réforme de la formation des enseignants, un chantier majeur encore inabouti

Société août 27, 2025

Vague de recours contre les transferts de détenus dans le quartier ultra-sécurisé de la prison de Vendin-le-Vieil

Société août 27, 2025

« Les grandes entreprises reportent sur la communauté le coût des salariés et rentabilisent leur cotisation d’assurance privée »

Société août 27, 2025

Qui est Ibtissame Lachgar, la militante marocaine accusée d’avoir porté atteinte à la religion islamique

Société août 27, 2025

Crise du logement : « Une France à deux vitesses se dessine », prévient l’Institut Montaigne

Société août 27, 2025

Rentrée 2025 : à la tête de l’éducation nationale, Elisabeth Borne plombée par le contexte politique et budgétaire

Société août 27, 2025

Actualité à la Une

EN BREF – Vote de confiance : ce qu’il faut retenir de l’interview de François Bayrou sur TF1

août 27, 2025

Devant le flou politique, les taxis reportent leur mobilisation pour « mettre le pays à l’arrêt »

août 27, 2025

Abattage de l’arbre planté en souvenir d’Ilan Halimi : deux suspects interpellés et jugés en comparution immédiate

août 27, 2025

Choix de l'éditeur

Aux Etats-Unis, deux enfants tués dans l’attaque d’une église de Minneapolis

août 27, 2025

La mise en examen de deux mineurs pour un projet d’attentat illustre le spectaculaire rajeunissement de la menace djihadiste

août 27, 2025

Météo du 27 août 2025 : Prévisions météo à 21h03

août 27, 2025

Novo19, la chaîne télé de « Ouest-France », prépare sa première rentrée

août 27, 2025

Avec un tour de vis sur le contrôle continu et les jurys, Elisabeth Borne espère redonner de la valeur au baccalauréat

août 27, 2025
Facebook X (Twitter) Pinterest TikTok Instagram
2025 © Le Méridien. Tous droits réservés.
  • Politique de Confidentialité
  • Termes et Conditions
  • Contacter

Type above and press Enter to search. Press Esc to cancel.

Sign In or Register

Welcome Back!

Login to your account below.

Lost password?