Comment mieux maîtriser l’activité de ses enfants sur ChatGPT ? C’est pour apporter certaines réponses à cette question qu’OpenAI a lancé lundi 29 septembre un contrôle parental pour son assistant conversationnel. La mesure avait été officiellement annoncée le 2 septembre, en réponse au dépôt d’une plainte par des parents accusant le service d’intelligence artificielle (IA) d’avoir accompagné leur adolescent Adam Raine pendant des mois dans sa démarche de suicide.

Lire aussi | Article réservé à nos abonnés ChatGPT annonce un contrôle parental après un suicide d’adolescent

Concrètement, ce contrôle parental sera mis en place en liant le compte de l’enfant à celui de ses parents. Il activera des « protections de contenus renforcées », promet OpenAI : les filtres automatiques mis en place par l’entreprise seront alors censés supprimer les réponses « graphiques » montrant des éléments jugés choquants ou violents, ainsi que les « challenges viraux » (souvent des jeux dangereux comme le jeu du foulard), les « jeux de rôle sexuels, romantiques ou violents » et les « idéaux de beauté extrêmes » encourageant par exemple les troubles alimentaires.

Désactiver la génération d’images ou le mode vocal

Les parents pourront définir des plages horaires pendant lesquels l’utilisation de ChatGPT sera impossible, par exemple la nuit. Il sera également possible de désactiver la génération d’images ou le mode vocal qui permet de dialoguer avec l’assistant à l’oral. Les tuteurs pourront de plus « désactiver la mémoire » de ChatGPT, ce qui permettra de supprimer l’historique des réponses faites à l’ado. Cette mesure a probablement été inspirée par l’affaire Adam Raine, dont les conversations très intimes et personnelles autour du suicide avait duré des mois avec l’assistant conversationnel.

Lire aussi | Article réservé à nos abonnés « On se confie encore plus à ChatGPT que sur les réseaux sociaux » : quand l’usage intime des assistants d’IA pose des problèmes éthiques

Egalement en réponse à la plainte des parents de l’ado mort par suicide, OpenAI annonce des « notifications » « permettant d’alerter les parents en cas de problème sérieux » – comme des propos récurrents sur le suicide

Ces dispositions soulèvent toutefois certaines questions, notamment sur la confidentialité des conversations des ados avec l’assistant conversationnel, qui pourront susciter des alertes envoyées directement aux parents. « La confidentialité reste une priorité : seules les informations nécessaires seront partagées afin d’aider les parents à s’assurer de la sécurité de leur enfant », assure OpenAI.

Il vous reste 42.96% de cet article à lire. La suite est réservée aux abonnés.

Partager
Exit mobile version