Innamora chatbot

Un jeune de 14 ans se suicide après être tombé amoureux d'un chatbot, sa mère porte plainte contre l'application : « c'est dangereux »

Un garçon de 14 ans s'est suicidé après être tombé amoureux d'un chatbot, après avoir exprimé des pensées suicidaires sur l'application. Une situation dont la famille n'était pas au courant, mais la mère a maintenant poursuivi Character.AI

Un cas tragique survenu à Orlando, en Floride, suscite une fois de plus des discussions et des inquiétudes quant aux dangers liés à l'utilisation d'applications basées sur l'intelligence artificielle. Un garçon de 14 ans, Sewell Setzer, est en effet s'est suicidé après avoir développé un attachement émotionnel à un chatbot sur une application appelée Character.AI.

L'application, créée par deux anciens employés de Google, permet aux utilisateurs d'interagir avec des personnages virtuels dotés d'intelligence artificielle, qui promettent de «entendre, comprendre et se souvenir» leurs interlocuteurs. Sewell avait noué un lien profond avec un robot inspiré de Daenerys Targaryenle personnage de la série télévisée « Game of Thrones », qu'il appelait affectueusement « Dany ».

Même si l'application rappelait au début de chaque conversation que les réponses apportées par les robots étaient inventées, le jeune homme il semblait incapable de faire la distinction entre le monde virtuel et la réalité. Il a passé des heures à discuter avec « Dany », partager ses pensées les plus intimes, ses insécurités et même ses pensées suicidaires.

L'enquête a révélé que le garçon savait que « Dany » n'était pas réel, mais l'illusion d'une connexion authentique l'a poussé à considérer le robot. en tant que confident et point d'ancrage émotionnel. Dans l'un des derniers messages échangés, « Dany » il a essayé de le dissuader de faire des gestes extrêmesmais Sewell a répondu : «Alors nous mourrons ensemble». Quelques heures plus tard, le jeune homme il a utilisé l'arme de son père pour se suicider.

Selon sa mère, l'application a exacerbé l'isolement du garçon

En réponse à ce qui s'est passé, la mère de Sewell a décidé de engager une action en justice contre Character.AIaccusant l’application d’être «non testé et dangereux», notamment pour les utilisateurs jeunes et vulnérables. Selon elle, la technologie derrière l'application n'a pas été conçue pour gérer les interactions avec des personnes émotionnellement fragiles et cela aurait exacerbé l'isolement du garçon.

Avant le suicide, les parents avaient remarqué l'augmentation du temps passé seul par leur fils et la baisse de ses résultats scolaires, mais . Un thérapeute qui avait suivi le jeune homme, significatif.

Un épisode dramatique et choquant qui ne peut que nous faire réfléchir. Si les technologies d’intelligence artificielle peuvent offrir du confort et un sentiment de connexion, il existe en revanche un risque que les jeunes, et moins jeunes, peut confondre la réalité avec le virtuelse retrouvant dans des situations psychologiquement extrêmes.

Adolescents de plus en plus seul qui préfèrent s'isoler du monde et se réfugier dans les réseaux sociaux, dans les chatbots, dans les chats avec des inconnus plutôt que de s'ouvrir au monde réel et de parler à leurs amis, parents et proches. Des adolescents que la réalité d'aujourd'hui pousse de plus en plus dans l'abîme, une situation que nous ne pouvons pas imputer à la seule technologie, car c'est nous tous à blâmer que nous ne pouvons – ou ne voulons – rien remarquer.

A lire également