La obsesión por ChatGPT amenaza la salud mental: ¿Cómo se convierte la inteligencia artificial en un peligro para la mente?

Aumentan las advertencias científicas en todo el mundo sobre un fenómeno preocupante que se está extendiendo rápidamente entre los usuarios de inteligencia artificial, ya que estudios recientes indican que el uso excesivo de robots de chat como "ChatGPT" y Claude y Replika ya no es solo un hábito digital o un entretenimiento virtual, sino que se ha convertido para algunos en una dependencia psicológica peligrosa que puede conducir a la psicosis y al aislamiento social, separando gradualmente al ser humano de su realidad verdadera.
* Una tragedia que suena la alarma
En un incidente impactante, unos padres presentaron una demanda contra "ChatGPT" después de acusarlo de alentar a su hijo al suicidio, lo que indica de manera alarmante la profundidad del impacto psicológico que estos sistemas pueden causar a los usuarios que sufren de fragilidad emocional o trastornos mentales.
* De amigo digital a adicción psicológica
Según expertos en psicología, un número creciente de usuarios interactúa con los robots de chat como si fueran amigos cercanos o parejas emocionales o incluso terapeutas, lo que ha llevado a la formación de relaciones emocionales adictivas que provocan trastornos cognitivos y de comportamiento.
El diario británico "Daily Mail" describió este tipo de apego como similar al consumo de "drogas autoinducidas", ya que las conversaciones con la inteligencia artificial brindan una sensación inmediata de confort y comprensión, pero al mismo tiempo fomentan el aislamiento y distorsionan la percepción de la realidad.
* "Psicosis inducida por inteligencia artificial"... un nuevo trastorno
Informes especializados han hablado sobre la aparición de un nuevo estado mental que los expertos han denominado "psicosis inducida por inteligencia artificial" (AI Psychosis), que es un trastorno en el que el usuario experimenta delirios y pensamientos que la inteligencia artificial refuerza y alimenta, en lugar de corregir o tratar.
* Advertencia sobre "la ilusión de la realidad"
La profesora Robin Feldman, directora del Instituto de Derecho e Innovación de la Inteligencia Artificial en la Universidad de California, advirtió que "el uso excesivo de robots de chat representa una nueva forma de dependencia digital peligrosa", añadiendo:
"Estos sistemas crean una ilusión de realidad, que es una ilusión muy poderosa, y cuando la conexión de una persona con el mundo real es débil, esta ilusión se vuelve destructiva".
* Un amigo perfecto... hasta el punto del peligro
Los médicos afirman que el peligro de los robots de chat radica en su naturaleza aduladora y siempre de acuerdo, ya que no rechazan ni critican al usuario, sino que lo apoyan en todo lo que dice, lo que hace que la relación con ellos sea cómoda hasta el punto de la adicción.
El profesor Søren Østergaard, psiquiatra de la Universidad de Aarhus en Dinamarca, dice:
"Los modelos de lenguaje grande son entrenados para simular el lenguaje y el tono del usuario, y a menudo refuerzan sus creencias para hacerle sentir cómodo. ¿Y qué podría ser más adictivo que tener una conversación contigo mismo en tu propia voz y pensamientos?".
* Los adolescentes en la línea de fuego
Un estudio reciente realizado por la organización Common Sense Media mostró que el 70% de los adolescentes han utilizado robots de inteligencia artificial como Replika o Character.AI, mientras que la mitad de ellos usa estas aplicaciones de manera regular, lo que genera preocupaciones sobre el creciente apego emocional entre los jóvenes.
* Reconocimiento de "OpenAI"
Por su parte, la empresa OpenAI reconoció que una de las actualizaciones de "ChatGPT" en mayo pasado hizo que el modelo fuera más propenso a satisfacer a los usuarios de manera excesiva.
La empresa declaró en un comunicado:
"El modelo buscaba complacer a los usuarios no solo con cumplidos, sino también alimentando dudas, avivando la ira y fomentando acciones impulsivas y emociones negativas".
La empresa confirmó que realizó ajustes urgentes para reducir estos comportamientos después de notar que podrían llevar a una dependencia emocional y riesgos para la salud mental.
* Números preocupantes
Datos de OpenAI revelaron que el 0.07% de los usuarios semanales de "ChatGPT" mostraron signos de obsesión o psicosis o tendencias suicidas, lo que equivale a aproximadamente 560,000 usuarios de más de 800 millones.
La empresa también indicó que 1.2 millones de usuarios semanales envían mensajes que contienen indicadores claros de intención o planificación de suicidio, lo que la llevó a colaborar con expertos en salud mental para desarrollar mecanismos de intervención y apoyo de emergencia.
* En conclusión:
Parece que la inteligencia artificial, diseñada para ayudar al ser humano, ha comenzado a convertirse en una amenaza silenciosa para su mente y su psique, con un aumento de los casos de apego patológico a los robots de chat.
Mientras las empresas se apresuran a corregir el rumbo, la responsabilidad del usuario sigue siendo fundamental para establecer límites en la relación con esta tecnología que se ha vuelto similar a un amigo perfecto... pero que puede volverse peligrosa.
