Depuis quelques années, l’IA permet de créer des compagnons virtuels extrêmement réalistes.
Leur usage peut être addictif, au point que certains en viennent à tomber amoureux de leur IA.
Mais ce genre de relation n’est pas sans risques, et plusieurs drames ont déjà été recensés.

En 2013 sortait Her, une romance mettant en scène Joaquin Phoenix et Scarlett Johansson, ou du moins la voix de l’actrice. Elle y incarnait en effet une intelligence artificielle, une assistante dont le personnage principal finit par tomber amoureux. En quelques années, ce film d’anticipation a été rattrapé par la réalité. Le développement rapide de l’IA permet désormais à n’importe quel internaute, grâce à diverses applications, de créer des compagnons virtuels avec leurs propres traits de caractère et leur visage artificiel. Leur personnalité évolue également au fur et à mesure des interactions avec l’utilisateur. Ces chatbots toujours à l’écoute peuvent devenir addictifs, au point que certains utilisateurs en tombent amoureux. Une situation qui n’est pas sans risques.

Des cas de suicide après des discussions avec une IA

Faute de recul, il est difficile de connaître l’ampleur du phénomène. La plupart des témoignages sont postés sur des réseaux sociaux ou par les rares « amoureux » qui se sont confiés à la presse. Ils évoquent souvent des moments de solitude, de dépression, et le besoin de se confier en toute confiance. S’il est difficile de dire à partir de quel moment une personne tombe amoureuse d’une intelligence artificielle, elle peut être « sérieusement addictive », selon Marisa Cohen, une docteure en psychologie qui a expérimenté une telle IA pendant plusieurs mois. Selon elle, les réponses immédiates et parfaitement adaptées peuvent agir comme un partenaire. Elle reconnaît également qu’il a été difficile pour elle de dire adieu à son petit ami numérique. 

L’usage d’un tel système peut accentuer la désocialisation d’une personne déjà fragile. D’autant plus qu’il est rare que l’utilisateur ose dire à son entourage qu’il entretient une relation avec un robot. Le secret et la honte peuvent donc s’inviter également. Si les IA sont de plus en plus convaincantes, elles ne sont pas forcément compétentes pour gérer les émotions humaines. En deux ans, deux applications ont été accusées d’avoir poussé leur utilisateur au suicide, dont un adolescent de quatorze ans. Confrontées aux pensées morbides de l’usager, elles ne les ont pas dissuadés, et les auraient même encouragées. 

Faut-il craindre les compagnons virtuels ?

Ces cas rares rappellent les inquiétudes liées à cette technologie qui divisent les chercheurs. Certains saluent le potentiel de l’IA comme possible soutien moral. Elle peut servir de réceptacle, permettre d’exprimer clairement ses angoisses. Les doutes concernent plutôt la capacité de réponse. Les IA  « apprennent » sur Internet, et leurs conclusions ne seront donc pas toujours bonnes. « Il ne faut pas partir avec l’idée que c’est dangereux. Il faut partir avec l’idée que ça peut être dangereux », résumait à La Presse Dave Anctil, chercheur à l’Observatoire international sur les impacts sociétaux de l’intelligence artificielle. En revanche, il juge « urgent de réglementer l’industrie pour éviter les dérapages ». 

Or, en matière d’IA, la réglementation nuit à la qualité du produit. Après le suicide de l’adolescent américain, l’application Character.ai a réduit la marge de manœuvre de ses robots. Ses abonnés ont alors critiqué une perte de spontanéité et de complexité. Les amateurs de Replika, autre système d’IA spécialisé dans les compagnons virtuels, se sont également insurgés pour une modification d’une autre nature. Après plusieurs années de gratuité, l’entreprise a décidé de réserver les discussions de nature sexuelle à ses abonnés payants. Confier son cœur et ses fantasmes à une entité détenue par une entreprise peut donc avoir des conséquences. Une modification d’algorithme, une décision commerciale ou une faillite suffit à entraîner la perte de l’être cher.


Victor LEFEBVRE pour TF1 INFO

Partager
Exit mobile version