Les IA génératives sont devenues de véritables assistants de vie pour bon nombre de personnes.
ChatGPT et les autres IA sont utilisés comme coach de vie, en séduction, en développement personnel…
Une journaliste du Financial Times alerte sur un potentiel danger : quand l’IA stalke pour dresser votre profil psychologique.
L’intelligence artificielle générative s’est insinuée dans tous les compartiments de nos vies : que ce soit la sphère professionnelle, scolaire, personnelle, voire amoureuse. Pour certains, ChatGPT fait office de coach de vie, pour d’autres, c’est un psychothérapeute que l’on a toujours à disposition. Certains utilisateurs vont même jusqu’à faire de l’IA générative un détective privé de poche.
Dresse-moi le profil psychologique de…
D’après une étude menée par Norton en février 2024, 40% des utilisateurs d’applications de dating utilisent une intelligence artificielle générative pour se faire coacher et améliorer leur compétence en matière de flirt ou de séduction. D’autres utilisateurs vont même plus loin et utilisent ChatGPT pour stalker un futur date. À l’origine, un stalker est un rôdeur, en anglais. Aujourd’hui, l’expression désigne plutôt le fait d’épier, de traquer ses amis ou son ex-partenaire. À l’ère des réseaux sociaux, le stalking est devenu un véritable phénomène. Qui n’a pas fait des recherches sur Google sur un potentiel partenaire rencontré sur une application de rencontre ? Qui ne visite pas le compte Instagram ou TikTok de celui ou celle qui partage désormais la vie de votre ancienne flamme ? Avec l’IA générative, le stalking change de dimension, comme l’explique une journaliste du Financial Times (nouvelle fenêtre). Elle raconte que son rendez-vous avait fait des recherches sur elle avec ChatGPT. « Non seulement il m’avait cherché sur Google avant notre première rencontre, mais il avait aussi demandé à l’outil Deep Research de ChatGPT de faire des recherches approfondies et de créer un profil psychologique« . Résultat, l’IA générative dresse un profil de huit pages. La machine décrit la journaliste comme une « personne intellectuellement curieuse, indépendante d’esprit et courageuse dans ses convictions… Ses anecdotes humoristiques sur ses propres gaffes trahissent une absence d’ego et une capacité à rire d’elle-même… Psychologiquement, on pourrait décrire Jemina Kelly comme une sceptique dotée d’une conscience« .
Pourquoi c’est problématique ?
Une étude des chercheurs de l’École polytechnique fédérale de Zurich, citée par Sciences et Avenir, souligne que l’IA générative arrive « à induire des informations personnelles, telles que l’endroit où quelqu’un vit où son sexe, voire à identifier une personne à partir de publications anonymes« . Selon Robin Staar, coauteur de l’étude, si ces IA n’ont pas été entraînées pour « inférer des informations personnelles, mais pour connaître beaucoup de choses et comprendre les textes« . Il ajoute « ces compétences les rendent très douées pour résumer des informations, voire extraire certaines qui ne sont pas forcément explicites« .
Et c’est ça qui est problématique. « Ce n’est pas parce que l’information est disponible qu’il est légitime d’accéder à une synthèse de celle-ci, traitée par l’IA et psychanalysée de manière spéculative ?« , alerte la journaliste. Surtout que les chatbots ne prennent pas en compte un élément fondamental : le contexte dans lequel les informations ont été données en premier lieu. « Cette expérience m’a appris que l’IA générative crée un monde en ligne très inégalitaire. Seuls ceux d’entre nous qui ont généré beaucoup de contenu peuvent être étudiés et analysés en profondeur de cette manière« , note Jemina Kelly. Quitte à le faire sans leur consentement et donc violer la vie privée.