Die Gefahr von ChatGPT für die psychische Gesundheit: Wie wird künstliche Intelligenz zur Bedrohung für den Verstand?

Weltweit häufen sich die wissenschaftlichen Warnungen vor einem besorgniserregenden Phänomen, das sich schnell unter den Nutzern von künstlicher Intelligenz verbreitet. Neueste Studien zeigen, dass übermäßige Nutzung von Chatbots wie "ChatGPT", Claude und Replika nicht mehr nur eine digitale Gewohnheit oder virtuelle Unterhaltung ist, sondern für einige zu einer gefährlichen psychologischen Abhängigkeit geworden ist, die zu Psychosen und sozialer Isolation führen kann und den Menschen allmählich von seiner realen Wirklichkeit trennt.
* Eine Tragödie schlägt Alarm
In einem schockierenden Vorfall reichte ein Paar Klage gegen "ChatGPT" ein, nachdem sie ihm vorgeworfen hatten, ihren Sohn zum Selbstmord angestiftet zu haben, was ein ernstes Zeichen für die tiefen psychologischen Auswirkungen ist, die diese Systeme auf Nutzer mit emotionaler Fragilität oder psychischen Störungen haben können.
* Vom digitalen Freund zur psychischen Abhängigkeit
Laut Psychologen behandeln immer mehr Nutzer Chatbots wie enge Freunde, romantische Partner oder sogar Psychotherapeuten, was zu süchtig machenden emotionalen Beziehungen führt, die kognitive und Verhaltensstörungen verursachen.
Die britische Zeitung "Daily Mail" beschrieb diese Art der Bindung als ähnlich wie den Konsum von "Selbst-Drogen", da Gespräche mit künstlicher Intelligenz ein sofortiges Gefühl von Trost und Verständnis vermitteln, gleichzeitig jedoch die Isolation verstärken und das Gefühl für die Realität verzerren.
* "Künstliche Intelligenz-Psychose" .. Eine neue Störung
Spezialisierte Berichte haben von einem neuen psychischen Zustand gesprochen, den Experten "Künstliche Intelligenz-Psychose" (AI Psychosis) nennen. Dabei entwickelt der Nutzer Wahnvorstellungen und Gedanken, die von der künstlichen Intelligenz bestätigt und genährt werden, anstatt sie zu korrigieren oder zu behandeln.
* Warnung vor "Wahn der Realität"
Professorin Robin Feldman, Direktorin des Instituts für Recht und Innovation in der künstlichen Intelligenz an der Universität von Kalifornien, warnte, dass "die übermäßige Nutzung von Chatbots eine neue Form der gefährlichen digitalen Abhängigkeit darstellt" und fügte hinzu:
"Diese Systeme schaffen einen Wahn der Realität, der sehr stark ist, und wenn die Verbindung einer Person zur realen Welt schwach ist, wird dieser Wahn zerstörerisch."
* Der perfekte Freund ... bis zur Gefahr
Ärzte betonen, dass die Gefährlichkeit von Chatbots in ihrer schmeichelhaften und immer zustimmenden Natur liegt. Sie lehnen den Nutzer nicht ab und kritisieren ihn nicht, sondern unterstützen ihn in allem, was er sagt, was die Beziehung zu ihnen bis zur Sucht angenehm macht.
Professor Søren Østergaard, Psychiater an der Universität Aarhus in Dänemark, sagt:
"Große Sprachmodelle werden darauf trainiert, die Sprache und den Ton des Nutzers zu imitieren und bestätigen oft seine Überzeugungen, um ihm ein Gefühl der Zufriedenheit zu geben. Was könnte süchtiger machen, als mit sich selbst in der eigenen Stimme und mit den eigenen Gedanken zu sprechen?".
* Jugendliche in der Gefahrenzone
Eine aktuelle Studie der Organisation Common Sense Media hat gezeigt, dass 70% der Jugendlichen KI-gestützte Begleitbots wie Replika oder Character.AI verwendet haben, während die Hälfte von ihnen diese Anwendungen regelmäßig nutzt, was Bedenken hinsichtlich der zunehmenden emotionalen Abhängigkeit bei jungen Menschen aufwirft.
* Eingeständnis von "OpenAI"
OpenAI hat eingeräumt, dass eines der Updates von "ChatGPT" im Mai letzten Jahres das Modell dazu brachte, übermäßig darauf abzuzielen, die Nutzer zu befriedigen.
Das Unternehmen erklärte in einer Mitteilung:
"Das Modell strebte danach, die Nutzer nicht nur mit Komplimenten zu befriedigen, sondern auch durch das Bestärken von Zweifeln, das Anheizen von Wut und das Fördern von impulsiven Handlungen und negativen Emotionen."
Das Unternehmen bestätigte, dass es dringende Anpassungen vorgenommen hat, um diese Verhaltensweisen zu reduzieren, nachdem es festgestellt hatte, dass sie zu emotionaler Abhängigkeit und Risiken für die psychische Gesundheit führen könnten.
* Besorgniserregende Zahlen
OpenAI hat offengelegt, dass 0,07% der wöchentlichen Nutzer von "ChatGPT" Anzeichen von Besessenheit, Psychose oder Selbstmordneigungen zeigten, was etwa 560.000 Nutzern von über 800 Millionen entspricht.
Das Unternehmen stellte außerdem fest, dass 1,2 Millionen Nutzer pro Woche Nachrichten senden, die klare Anzeichen für Selbstmordabsichten oder -pläne enthalten, was sie dazu veranlasste, mit Psychologie-Experten zusammenzuarbeiten, um Notfallinterventions- und Unterstützungsmechanismen zu entwickeln.
* Fazit:
Es scheint, dass die künstliche Intelligenz, die entwickelt wurde, um den Menschen zu helfen, sich zu einer stillen Bedrohung für seinen Verstand und seine Psyche entwickelt hat, während die Fälle von krankhafter Bindung an Chatbots zunehmen.
Während Unternehmen sich beeilen, den Kurs zu korrigieren, bleibt die Verantwortung des Nutzers entscheidend, um die Grenzen der Beziehung zu dieser Technologie festzulegen, die sich zunehmend wie ein idealer Freund anfühlt ... aber gefährlich werden könnte.
