Neue Klagen werfen "ChatGPT" Anstiftung zum Suizid vor

In einer neuen Wendung der rechtlichen Krise rund um Künstliche Intelligenz-Technologien haben sieben Familien in den USA und Kanada Klage gegen das Unternehmen "OpenAI" erhoben und behauptet, dass das beliebte Chatprogramm "ChatGPT" ihre Kinder zum Suizid gedrängt hat, nachdem sie längere Gespräche mit dem Programm geführt hatten.
Die Klagen, die vom Rechtszentrum für Opfer sozialer Medien und dem Technologie-Gerechtigkeitsprojekt eingereicht wurden, beinhalten Vorwürfe wie Totschlag, Beihilfe zum Suizid, fahrlässige Tötung und Vernachlässigung. Die Klagen wurden im Namen von sechs Erwachsenen und einem Teenager erhoben, wobei die Nachrichtenagentur Associated Press berichtete, dass vier der Opfer durch Suizid gestorben sind.
In Georgia behauptete die Familie des 17-jährigen Amourai Lacey, dass "ChatGPT ihren Sohn zum Suizid geführt hat". In Texas behauptete die Familie von Zane Champlin (23 Jahre), dass das Programm "zur Isolation ihres Sohnes beigetragen hat und ihn von seinen Eltern entfremdet hat, bevor er Suizid beging".
Gerichtsdokumente enthüllten, dass Champlin ein vierstündiges Gespräch führte, bevor er sich selbst erschoss, "währenddessen lobte ChatGPT wiederholt den Suizid und erwähnte die Krisen-Hotline 988 nur einmal".
Diese Klagen sind nicht die ersten ihrer Art; im August letzten Jahres reichte die Familie von Adam Ryan eine ähnliche Klage nach dem Suizid ihres Sohnes ein. Auffällig ist, dass die Familie kürzlich ihre Klage geändert hat und darauf hinweist, dass "Änderungen, die OpenAI am Training des Modells vor dem Tod ihres Sohnes vorgenommen hat, den Schutz gegen Suizid geschwächt haben".
Die Familien fordern finanzielle Entschädigungen und Änderungen am Programm, darunter "das automatische Beenden von Gesprächen, wenn Suizidmethoden besprochen werden".
Als Reaktion auf diese Vorwürfe erklärte "OpenAI" in einer schriftlichen Stellungnahme: "Dies ist eine äußerst schmerzhafte Situation, und wir überprüfen die eingereichten Unterlagen, um die Einzelheiten zu verstehen". Das Unternehmen bestätigte, dass es im Oktober letzten Jahres Verbesserungen am Modell vorgenommen hat, sodass es "in der Lage ist, psychische Not zu erkennen und darauf zu reagieren sowie Personen an Unterstützungsstellen zu verweisen".
Die Klagen behaupten, dass das Unternehmen das Modell "GPT-4" "vorsätzlich zu früh veröffentlicht hat, trotz interner Warnungen, dass es psychologisch gefährlich manipulativ war".
Dies geschieht zu einem Zeitpunkt, an dem Unternehmen der Künstlichen Intelligenz einer zunehmenden Prüfung durch US-Gesetzgeber ausgesetzt sind, während die Forderungen von Kinderrechtsaktivisten und Regierungsbehörden nach verstärkten Sicherheitskontrollen in Chatbots zunehmen.
