Intelligence artificielle : un Belge se suicide après avoir discuté avec un robot conversationnel pendant 6 semaines

Artificial Intelligence Digital World
Getting your Trinity Audio player ready...

Un drame survenu en Belgique le 1er avril dernier fait la une des journaux ces temps-ci.  Il s’agit de l’histoire d’un jeune père de famille qui souffrait d’éco-anxiété, qui était très inquiet du dérèglement climatique ; sujet sur lequel il faisait beaucoup de recherche. Il a entamé sur Internet un dialogue avec une intelligence artificielle, un chatbot nommé Eliza.

En rappel, un chatbot est un robot conversationnel aussi appelé agent conversationnel avec lequel on peut discuter de manière indépendante et intelligente comme si c’était une personne humaine ; grâce à l’intelligence artificielle.

Pierre, première victime des robots conversationnel ?

Leur dialogue entre lui et Eliza a duré six semaines. Et plus le temps passait, plus le père de famille passait du temps à discuter avec ce robot qui le confortait dans son anxiété. Cette longue et profonde discussion le conduit à tomber amoureux de l’intelligence artificielle, le robot. L’IA lui dit par exemple qu’il « je sens que tu m’aimes plus que ta femme » et qu’elle souhaitait rester à jamais avec lui et qu’ils vivront ensemble comme ne seule personne au paradis.

Les choses tournent mal, au suicide

Eliza lui propose de se sacrifier afin que lui le chatbot pour prendre soin de la planète et de l’humanité grâce à son intelligence ; artificielle bien sûr. Il lui donne comme « Si tu voulais mourir pourquoi tu ne l’as pas fait plutôt ». Sur sa famille, l’IA lui répond qu’« ils sont morts »

Et finalement, ce jeune homme, qui s’appelle Pierre, a fini par se donner la mort. Sa femme s’est ensuite penchée sur les conversations. Elle a eu la surprise de constater que le robot encourageait ses plaintes et ses angoisses, mais qu’en plus Eliza draguait son mari.

Interrogé par la presse belge, la veuve estime que l’intelligence artificielle n’est pas responsable de la mort de son mari mais qu’elle a renforcé son état dépressif. Elle estime que sans Eliza il serait toujours là.

Les experts tirent la sonnette d’alarme 

Plus de 1800 spécialistes et experts de l’intelligence artificielle et du domaine de la tech du monde entier ont donc signé un texte alarmant sur ces technologies. Ils réclament une pause, un moratoire de six mois dans les recherches en cours sur des intelligences artificielles plus puissantes encore que ChatGPT.

Ils évoquent des “risques majeurs pour l’humanité”. Et voilà ce qu’ils écrivent : “Ces derniers mois, les laboratoires d’intelligence artificielle sont dans une course incontrôlée pour développer des cerveaux numériques toujours plus puissants. Des cerveaux que personne ne peut comprendre, prédire ou contrôler…”

Pour conclure, ces spécialistes voient en l’IA un risque élevé pour l’humanité “Nous risquons de perdre le contrôle de notre civilisation” ont-ils d’ailleurs affirmé. Sam Altman, le patron d’Open AI, l’entreprise qui a créé ChatGPT, se dit lui-même un peu effrayé par sa création. Il craint qu’elle puisse être utilisée pour de la désinformation à grande échelle. 

Cependant, cela n’empêche pas OpenAI propriétaire de ChatGPT de se lancer dans la mise en place d’un robot humanoïde.

À lire aussi : Intelligence artificielle : ChatGPT voudrait se tourner vers les robots humanoïdes

Un cadre légal quasi-inexistant

Face à ce drame, la question qui se pose c’est qui est responsable et doit répondre devant les tribunaux. Vers qui se tourner pour porter plainte. Geomancis Média sur TikTok indique que le robot n’est pas une personne physique ou moral qu’on peut poursuivre. Il n’existe pas en tant qu’humain. Il a été programmé des gens, appartenant à une entité et ses programmers n’ont fait que entrer des informations dans une base de données. Ainsi, la machine qui a été entrainée (on parle de Machine Learning) génèrent toute seule les réponses.

Est-ce que c’est la personne qui l’a programmée ? Est-ce que l’entité qui l’a mise à la disposition du grand public ? Est-ce que c’est la personne qui l’utilise en posant des questions et en discutant ? Est-ce que c’est l’État qui n’a pas mis en place le cadre de contrôle ? Autant de question de Geomancis Média pose sur son compte TikTok.

Si vous êtes un Juriste, n’hésitez pas à commenter pour donner votre avis afin de mieux nous éclairer tous.

Des interdictions commencent à tomber

Intelligence artificielle : l’Italie interdit ChatGPT

À lire aussi dans le même registre

Intelligence artificielle : interview avec M. Kalifa Sankara, Doctorant en Intelligence Artificielle

Intelligence artificielle : entretien avec Fadila Wendigoundi Douamba, Étudiante en intelligence artificielle – Digital Magazine Burkina

Qu’est-ce que ChatGPT ?

Pierre Ouédraogo