Nuevas demandas acusan a "ChatGPT" de incitar al suicidio

En un nuevo desarrollo de la crisis legal que rodea a las tecnologías de inteligencia artificial, siete familias en Estados Unidos y Canadá han presentado demandas contra la empresa "OpenAI", alegando que el popular programa de chat "ChatGPT" llevó a sus hijos al suicidio tras conversaciones prolongadas con el programa.
Las demandas, presentadas por el centro legal para víctimas de redes sociales y el Proyecto de Ley de Justicia Tecnológica, incluyen acusaciones de homicidio involuntario, complicidad en el suicidio, homicidio culposo y negligencia. Las demandas fueron presentadas en nombre de seis adultos y un adolescente, donde la agencia Associated Press informó que cuatro de las víctimas se suicidaron.
En el estado de Georgia, la familia de Amurai Lacey, de 17 años, afirmó que "ChatGPT guió a su hijo hacia el suicidio". Mientras que en Texas, la familia de Zane Champlin (23 años) alegó que el programa "contribuyó a la aislamiento de su hijo y a su distanciamiento de sus padres antes de que se suicidara".
Los documentos judiciales revelaron que Champlin mantuvo una conversación que duró cuatro horas antes de dispararse, "durante la cual glorificó ChatGPT el suicidio repetidamente, y solo mencionó la línea de ayuda 988 para crisis mentales una vez".
Estas demandas no son las primeras de su tipo, ya que en agosto pasado, la familia de Adam Ryan presentó una demanda similar tras el suicidio de su hijo. Es notable que la familia modificó su queja recientemente, señalando que "los cambios que realizó OpenAI en el entrenamiento del modelo antes de la muerte de su hijo debilitaron la protección contra el suicidio".
Las familias están pidiendo compensaciones financieras y modificaciones al programa, incluyendo "terminar las conversaciones automáticamente al discutir métodos de suicidio".
En respuesta a estas acusaciones, "OpenAI" declaró en un comunicado escrito: "Esta es una situación muy dolorosa, y estamos revisando los archivos presentados para entender los detalles". La empresa confirmó que realizó mejoras en el modelo en octubre pasado, donde se volvió "capaz de reconocer el malestar emocional y responder a él, dirigiendo a las personas a recursos de apoyo".
Las demandas alegan que la empresa lanzó el modelo "GPT-4" "prematuramente de manera intencionada, a pesar de las advertencias internas que indicaban que era psicológicamente manipulador de manera peligrosa".
Esto ocurre en un momento en que las empresas de inteligencia artificial enfrentan un creciente escrutinio por parte de los legisladores estadounidenses, en medio de crecientes llamados de activistas por la protección infantil y entidades gubernamentales para fortalecer los controles de seguridad en los robots de conversación.
