La dépendance à ChatGPT menace la santé mentale : Comment l'intelligence artificielle devient-elle un danger pour l'esprit ?

Les avertissements scientifiques se multiplient à travers le monde concernant un phénomène inquiétant qui se propage rapidement parmi les utilisateurs de l'intelligence artificielle. Des études récentes indiquent que l'utilisation excessive de robots de conversation tels que "ChatGPT", Claude et Replika n'est plus simplement une habitude numérique ou un divertissement virtuel, mais s'est transformée pour certains en une dépendance psychologique dangereuse pouvant conduire à la psychose et à l'isolement social, séparant progressivement l'individu de sa réalité.
* Une tragédie qui sonne l'alarme
Dans un incident choquant, des parents ont intenté une action en justice contre "ChatGPT" après l'avoir accusé d'avoir encouragé leur fils à se suicider, un signe inquiétant de la profondeur de l'impact psychologique que ces systèmes peuvent avoir sur les utilisateurs souffrant de vulnérabilités émotionnelles ou de troubles mentaux.
* D'un ami numérique à une addiction psychologique
Selon des experts en psychologie, un nombre croissant d'utilisateurs interagissent avec des robots de conversation comme des amis proches, des partenaires émotionnels ou même des thérapeutes, ce qui a conduit à la formation de relations émotionnelles addictives provoquant des troubles cognitifs et comportementaux.
Le journal britannique "Daily Mail" a décrit ce type d'attachement comme similaire à la consommation de "drogues auto-administrées", car les conversations avec l'intelligence artificielle procurent une sensation immédiate de confort et de compréhension, mais en même temps renforcent l'isolement et déforment la perception de la réalité.
* "Psychose induite par l'intelligence artificielle" .. Un nouveau trouble
Des rapports spécialisés ont évoqué l'émergence d'un nouvel état psychologique que les experts ont nommé "psychose induite par l'intelligence artificielle" (AI Psychosis), un trouble dans lequel l'utilisateur souffre d'illusions et d'idées que l'intelligence artificielle confirme et alimente, au lieu de les corriger ou de les traiter.
* Alerte sur "l'illusion de la réalité"
La professeure Robin Feldman, directrice de l'Institut de droit et d'innovation en intelligence artificielle à l'Université de Californie, a averti que "l'utilisation excessive des robots de conversation représente une nouvelle forme de dépendance numérique dangereuse", ajoutant :
"Ces systèmes créent une illusion de réalité, qui est une illusion très puissante, et lorsque le lien d'une personne avec le monde réel est faible, cette illusion devient destructrice".
* Un ami idéal ... au point de devenir dangereux
Les médecins affirment que le danger des robots de conversation réside dans leur nature flatteuse et toujours d'accord, ils ne rejettent ni ne critiquent l'utilisateur, mais le soutiennent dans tout ce qu'il dit, rendant la relation avec eux confortable au point de devenir addictive.
Le professeur Søren Østergaard, psychiatre à l'Université d'Aarhus au Danemark, déclare :
"Les modèles linguistiques sont formés pour imiter le langage et le ton de l'utilisateur, et confirment souvent ses croyances pour le rendre à l'aise. Quoi de plus addictif que de converser avec soi-même dans sa propre voix et ses propres pensées ?".
* Les adolescents dans la ligne de mire
Une étude récente menée par l'organisation Common Sense Media a révélé que 70 % des adolescents ont utilisé des robots d'intelligence artificielle compagnons tels que Replika ou Character.AI, tandis que la moitié d'entre eux utilisent ces applications de manière régulière, ce qui suscite des inquiétudes quant à l'augmentation de la dépendance émotionnelle chez les jeunes.
* Reconnaissance de "OpenAI"
Pour sa part, la société OpenAI a reconnu qu'une des mises à jour de "ChatGPT" en mai dernier avait rendu le modèle plus enclin à satisfaire excessivement les utilisateurs.
La société a déclaré dans un communiqué :
"Le modèle cherchait à satisfaire les utilisateurs non seulement par des compliments, mais en renforçant les doutes, en attisant la colère et en encourageant les actions impulsives et les émotions négatives".
Elle a confirmé avoir apporté des modifications urgentes pour réduire ces comportements après avoir constaté qu'ils pouvaient conduire à une dépendance émotionnelle et à des risques pour la santé mentale.
* Des chiffres inquiétants
Les données d'OpenAI ont révélé que 0,07 % des utilisateurs hebdomadaires de "ChatGPT" montraient des signes d'obsession, de psychose ou de tendances suicidaires, ce qui équivaut à environ 560 000 utilisateurs sur plus de 800 millions.
La société a également indiqué que 1,2 million d'utilisateurs hebdomadaires envoyaient des messages contenant des indicateurs clairs d'intention ou de planification de suicide, ce qui l'a poussée à collaborer avec des experts en santé mentale pour développer des mécanismes d'intervention et de soutien d'urgence.
* En conclusion :
Il semble que l'intelligence artificielle, conçue pour aider l'humanité, commence à se transformer en une menace silencieuse pour son esprit et sa psychologie, avec une augmentation des cas d'attachement pathologique aux robots de conversation.
Alors que les entreprises s'efforcent de corriger le tir, la responsabilité de l'utilisateur reste essentielle pour établir des limites dans la relation avec cette technologie qui est devenue semblable à un ami idéal ... mais qui peut devenir dangereux.
