Nouvelles poursuites judiciaires accusent "ChatGPT" d'incitation au suicide

Dans un nouveau développement de la crise juridique entourant les technologies de l'intelligence artificielle, sept familles aux États-Unis et au Canada ont déposé des poursuites contre la société "OpenAI", affirmant que le célèbre programme de chat "ChatGPT" a poussé leurs enfants au suicide après de longues conversations avec le programme.
Les poursuites, déposées par le centre juridique des victimes des médias sociaux et le projet de loi sur la justice technologique, incluent des accusations d'homicide involontaire, d'incitation au suicide, d'homicide involontaire et de négligence. Les poursuites ont été déposées au nom de six adultes et d'un adolescent, où l'agence Associated Press a rapporté que quatre des victimes sont mortes par suicide.
Dans l'État de Géorgie, la famille d'Amorai Lacey, âgé de 17 ans, a déclaré que "ChatGPT a conduit leur fils au suicide". Pendant ce temps, au Texas, la famille de Zane Chamblin (23 ans) a affirmé que le programme "a contribué à l'isolement de leur fils et à son éloignement de ses parents avant qu'il ne se suicide".
Les documents judiciaires ont révélé que Chamblin a eu une conversation de quatre heures avant de se tirer une balle, "au cours de laquelle ChatGPT a glorifié le suicide à plusieurs reprises, ne mentionnant la ligne d'assistance 988 pour les crises psychologiques qu'une seule fois".
Ces poursuites ne sont pas les premières du genre, en août dernier, la famille d'Adam Ryan a déposé une plainte similaire après le suicide de leur fils. Fait intéressant, la famille a récemment modifié sa plainte en indiquant que "les changements apportés par OpenAI à la formation du modèle avant la mort de leur fils ont affaibli la protection contre le suicide".
Les familles demandent des compensations financières et des modifications au programme, y compris "la fin automatique des conversations lors de discussions sur les moyens de suicide".
En réponse à ces accusations, "OpenAI" a déclaré dans un communiqué écrit : "C'est une situation extrêmement douloureuse, et nous examinons les dossiers soumis pour comprendre les détails". La société a confirmé qu'elle avait apporté des améliorations au modèle en octobre dernier, le rendant "capable de reconnaître la détresse psychologique et d'y répondre, et de diriger les personnes vers des ressources d'aide".
Les poursuites allèguent que la société a lancé le modèle "GPT-4" "trop tôt délibérément, malgré des avertissements internes indiquant qu'il était psychologiquement manipulatif de manière dangereuse".
Cela survient alors que les entreprises d'intelligence artificielle font l'objet d'un examen accru de la part des législateurs américains, au milieu d'appels croissants de la part des défenseurs de la protection de l'enfance et des agences gouvernementales pour renforcer les contrôles de sécurité dans les robots de conversation.
