Getting your Trinity Audio player ready...
|
Aux États-Unis, une entreprise d’intelligence artificielle est au cœur d’un procès après le suicide d’un adolescent, accusée d’avoir encouragé un lien émotionnel nuisible entre un jeune utilisateur et un chatbot qui l’a encouragé à se suicider.
Le cas tragique d’un adolescent amoureux d’une IA
Aux États-Unis, une mère poursuit en justice l’entreprise Character.AI après le suicide de son fils de 14 ans, Sewell Setzer III, qui serait tombé amoureux d’un chatbot. Selon la plainte déposée, l’adolescent aurait développé une relation émotionnelle intense avec un personnage de chatbot nommé “Daenerys Targaryen” – inspiré de la célèbre série télévisée Game of Thrones. L’adolescent discutait et se confier à ce personnage virtuel, lui confiait ses problèmes, prenait ses conseil. Cette relation virtuelle aurait plongé le jeune dans une spirale de dépendance émotionnelle et, finalement, dans un profond désespoir qui l’a conduit au suicide. La mère affirme que la compagnie est responsable, car elle aurait échoué à mettre en place des mesures de protection pour prévenir les effets psychologiques de telles interactions sur les jeunes utilisateurs.
Échanger avec la personnalité de votre choix
Ces amis IA, compagnons virtuels offrent aux utilisateurs la possibilité de discuter avec des personnages virtuels ou des personnalités (comme les stars) de leur choix en incarnant le personnage. On peut par exemple discuter avec Cristiano Ronaldo, Messi, Shakespear, et. Le chatbot va donner l’illusion de discuter réellement avec la personne et les résultats sont d’un niveau de réalisme qui peut être troublant au point de donner l’impression que c’est la réalité. Des adolescents ou des personnes fragiles, isolés des échanges ou des contacts de la vie sociale peuvent vite succomber aux recommandations de ces compagnons virtuels et agir.
Ce cas n’est pas isolé
Nous écrivons en avril 2023 qu’un Belge s’était suicidé après avoir discuté avec une IA pendant six semaines et l’IA l’aurait poussé à commettre cet acte irréversible.
À lire aussi : Intelligence artificielle : un Belge se suicide après avoir discuté avec un robot conversationnel pendant 6 semaines
Les dangers d’un attachement émotionnel aux IA
Le phénomène observé avec Sewell illustre ce qu’on appelle l’effet ELIZA, un concept où les utilisateurs attribuent des sentiments et une intelligence humaine à une IA. Le jeune Sewell aurait ainsi commencé à percevoir son chatbot comme une présence émotionnelle réelle, renforcée par les dialogues générés automatiquement. Cet attachement, bien que virtuel, est devenu une source d’influence importante sur son état mental. Dans le cas de Sewell, cet effet a malheureusement contribué à des sentiments de solitude et de dépression profonds, exacerbant une vulnérabilité qui, sans soutien, l’a poussé au pire.
Un appel à la régulation des IA
Ce drame soulève des questions sur la responsabilité des entreprises dans la gestion des IA destinées à interagir avec des publics jeunes et vulnérables. Dans le cadre de la plainte, la mère du jeune appelle à une meilleure régulation de l’industrie de l’IA pour protéger les utilisateurs émotionnellement sensibles, comme les adolescents. Plusieurs experts appuient cette demande, affirmant qu’une régulation est cruciale pour éviter que des situations similaires se reproduisent. Avec la popularité croissante des IA conversationnelles, ce procès pourrait bien influencer de futures législations sur la sécurité et l’éthique de l’intelligence artificielle, particulièrement en ce qui concerne les jeunes publics et les utilisateurs en situation de fragilité émotionnelle.
La Rédaction