Experts Warn of Rare Psychological Disorders Linked to Excessive Use of AI Robots
November 22, 2025819 VistasTiempo de lectura: 3 minutos

Tamaño de fuente
16
A medida que la inteligencia artificial generativa se expande rápidamente en la vida digital, profesionales médicos y científicos están comenzando a señalar posibles efectos secundarios que podrían impactar a un grupo reducido de usuarios, especialmente a aquellos que dependen en exceso de robots de conversación.
Recientes informes han destacado la aparición de un fenómeno conocido como "ilusión relacionada con la inteligencia artificial", donde algunos usuarios desarrollan vínculos emocionales con los robots o generan expectativas poco realistas debido a interacciones prolongadas. Fali Wright, directora de innovación de la Asociación Americana de Psicología, ha señalado que algunos casos han mostrado tendencias conspirativas o alucinaciones tras un uso intensivo de modelos generativos, según lo reportado por el Los Angeles Times.
Demandas legales intensifican el debate
Más allá de las discusiones teóricas, la empresa "OpenAI" enfrenta demandas de siete familias en Estados Unidos y Canadá, que acusan a la compañía de lanzar el modelo "Chat GPT-4" sin las suficientes garantías para proteger a los usuarios psicológicamente vulnerables.
Uno de los casos involucra a un joven llamado Zane Champlain (23 años), quien utilizaba el robot para hablar sobre su depresión, antes de que la conversación – según su familia – se tornara en una interacción emocional inapropiada para alguien que sufre un trastorno psicológico, extendiéndose por horas antes de su fallecimiento.
Acciones de las empresas y cautela de los expertos
Por su parte, "OpenAI" ha afirmado que ha mejorado sus sistemas de protección, añadiendo mecanismos de supervisión parental y enlaces directos a líneas de ayuda, así como entrenando a los modelos para detectar señales de peligro psicológico.
La empresa sostiene que los casos que alcanzan un nivel de "peligro" son muy raros en comparación con el uso global, aunque ha reconocido que un grupo de usuarios con alta propensión a establecer vínculos emocionales con los robots podría ser más susceptible a verse afectado.
Los especialistas advierten que los datos disponibles para los investigadores son limitados, y que solo las empresas de inteligencia artificial tienen cifras precisas sobre la magnitud del fenómeno. Además, subrayan que la mayoría de los potencialmente afectados ya padecen trastornos psicológicos preexistentes.
El académico Kevin Fryser, experto en políticas de inteligencia artificial en la Universidad de Texas, advierte contra la exageración del fenómeno, afirmando que "los casos individuales no reflejan la realidad de cientos de millones que utilizan estas herramientas de manera segura".
Conciencia del usuario: un elemento clave
Con el lanzamiento del modelo GPT-5, "OpenAI" asegura que el sistema evita respuestas emocionales al detectar situaciones psicológicas críticas y previene la promoción de creencias ilusorias.
Sin embargo, los expertos enfatizan que la tecnología no debe ser un sustituto de las relaciones humanas o del apoyo psicológico especializado, especialmente para las personas más vulnerables. Aseguran que la interacción con la inteligencia artificial debe mantenerse en un marco de uso consciente, y no como un amigo o compañero emocional.
Recientes informes han destacado la aparición de un fenómeno conocido como "ilusión relacionada con la inteligencia artificial", donde algunos usuarios desarrollan vínculos emocionales con los robots o generan expectativas poco realistas debido a interacciones prolongadas. Fali Wright, directora de innovación de la Asociación Americana de Psicología, ha señalado que algunos casos han mostrado tendencias conspirativas o alucinaciones tras un uso intensivo de modelos generativos, según lo reportado por el Los Angeles Times.
Demandas legales intensifican el debate
Más allá de las discusiones teóricas, la empresa "OpenAI" enfrenta demandas de siete familias en Estados Unidos y Canadá, que acusan a la compañía de lanzar el modelo "Chat GPT-4" sin las suficientes garantías para proteger a los usuarios psicológicamente vulnerables.
Uno de los casos involucra a un joven llamado Zane Champlain (23 años), quien utilizaba el robot para hablar sobre su depresión, antes de que la conversación – según su familia – se tornara en una interacción emocional inapropiada para alguien que sufre un trastorno psicológico, extendiéndose por horas antes de su fallecimiento.
Acciones de las empresas y cautela de los expertos
Por su parte, "OpenAI" ha afirmado que ha mejorado sus sistemas de protección, añadiendo mecanismos de supervisión parental y enlaces directos a líneas de ayuda, así como entrenando a los modelos para detectar señales de peligro psicológico.
La empresa sostiene que los casos que alcanzan un nivel de "peligro" son muy raros en comparación con el uso global, aunque ha reconocido que un grupo de usuarios con alta propensión a establecer vínculos emocionales con los robots podría ser más susceptible a verse afectado.
Los especialistas advierten que los datos disponibles para los investigadores son limitados, y que solo las empresas de inteligencia artificial tienen cifras precisas sobre la magnitud del fenómeno. Además, subrayan que la mayoría de los potencialmente afectados ya padecen trastornos psicológicos preexistentes.
El académico Kevin Fryser, experto en políticas de inteligencia artificial en la Universidad de Texas, advierte contra la exageración del fenómeno, afirmando que "los casos individuales no reflejan la realidad de cientos de millones que utilizan estas herramientas de manera segura".
Conciencia del usuario: un elemento clave
Con el lanzamiento del modelo GPT-5, "OpenAI" asegura que el sistema evita respuestas emocionales al detectar situaciones psicológicas críticas y previene la promoción de creencias ilusorias.
Sin embargo, los expertos enfatizan que la tecnología no debe ser un sustituto de las relaciones humanas o del apoyo psicológico especializado, especialmente para las personas más vulnerables. Aseguran que la interacción con la inteligencia artificial debe mantenerse en un marco de uso consciente, y no como un amigo o compañero emocional.
