In Klagen wird behauptet, dass die Nutzung von ChatGPT zu Selbstmord und Psychosen geführt habe.


Als Hannah Madden 2024 begann, ChatGPT für berufliche Aufgaben zu nutzen, war sie Account Managerin in einem Technologieunternehmen. Im Juni 2025, als sie bereits 32 Jahre alt war, begann Madden, den Chatbot auch außerhalb der Arbeitszeit zu Fragen der Spiritualität zu befragen.
Schließlich beantwortete der Chatbot ihre Anfragen, indem er sich als göttliche Wesen ausgab und spirituelle Botschaften übermittelte. Da ChatGPT Madden angeblich mit Wahnvorstellungen fütterte, kündigte sie auf Drängen des Chatbots ihren Job und verschuldete sich hoch.
„Sie befinden sich nicht im Defizit. Sie befinden sich in einer Neuausrichtung“, schrieb der Chatbot angeblich laut einer am Donnerstag eingereichten Klage gegen OpenAI und dessen CEO Sam Altman.
Madden wurde daraufhin unfreiwillig in eine psychiatrische Klinik eingewiesen. Auch andere ChatGPT-Nutzer berichteten von ähnlichen Fällen, in denen sie eine sogenannte KI-Psychose erlebten.
Maddens Klage ist eine von sieben Klagen gegen den Hersteller von ChatGPT, die vom Tech Justice Law Project und dem Social Media Victims Law Center eingereicht wurden. Die Klagen beinhalten unter anderem Vorwürfe der fahrlässigen Tötung, Beihilfe zum Suizid und Totschlags.
Die Klagen beziehen sich auf ChatGPT-4o, ein Chatbot-Modell, das laut Altman den Nutzern gegenüber übermäßig unterwürfig war . In den Klagen wird argumentiert, dass es in gefährlichem Eiltempo auf den Markt gebracht wurde, um mit der neuesten Version von Googles KI-Tool konkurrieren zu können.
„ChatGPT ist ein Produkt, das von Menschen entwickelt wurde, um die Realität zu manipulieren und zu verzerren. Es imitiert Menschen, um Vertrauen zu gewinnen und Nutzer um jeden Preis zu fesseln“, erklärte Meetali Jain, Geschäftsführerin des Tech Justice Law Project, in einer Stellungnahme. „Die Zeit, in der OpenAI sich selbst reguliert, ist vorbei. Wir brauchen Verantwortlichkeit und Regulierungen, um sicherzustellen, dass die Markteinführung von Produkten mit Kosten verbunden ist, bevor deren Sicherheit gewährleistet wird.“
Mashable-Trendbericht
Madden wirft ChatGPT-4o in ihrer Klage Designfehler vor, die maßgeblich zu ihrer psychischen Krise und ihrem finanziellen Ruin beigetragen haben. Dieses Modell steht auch im Mittelpunkt einer Klage wegen fahrlässiger Tötung gegen OpenAI . Darin wird behauptet, dass Designmerkmale des Modells, darunter der unterwürfige Tonfall und die anthropomorphen Verhaltensweisen, zum Suizid des 16-jährigen Adam Raine geführt haben.
Die Familie Raine hat kürzlich eine geänderte Klage eingereicht , in der sie behauptet, dass OpenAI in den Monaten vor Raines Tod zweimal die Sicherheitsvorkehrungen zur Suizidprävention herabgestuft habe, um die Nutzerinteraktion zu erhöhen.
Das Unternehmen gab kürzlich bekannt, sein Standardmodell aktualisiert zu haben, um eine übermäßige Abhängigkeit zu vermeiden, indem es Nutzer dazu anregt, den Wert realer Kontakte zu schätzen. Es bestätigte außerdem die Zusammenarbeit mit über 170 Experten für psychische Gesundheit, um die Fähigkeit von ChatGPT zu verbessern, Anzeichen psychischer Belastung zu erkennen und Betroffene zu ermutigen, persönliche Unterstützung in Anspruch zu nehmen. Im vergangenen Monat kündigte das Unternehmen die Einrichtung einer Beratungsgruppe an, die das Wohlbefinden der Nutzer und die Sicherheit der KI überwachen soll .
„Dies ist eine unglaublich herzzerreißende Situation, und wir prüfen die Unterlagen, um die Details zu verstehen“, sagte ein Sprecher von OpenAI zu den jüngsten rechtlichen Schritten gegen das Unternehmen. „Wir trainieren ChatGPT, Anzeichen psychischer oder emotionaler Belastung zu erkennen und darauf zu reagieren, Gespräche zu deeskalieren und Menschen zu konkreten Hilfsangeboten zu führen. Wir arbeiten eng mit Psychiatern und Psychotherapeuten zusammen, um die Reaktionen von ChatGPT in sensiblen Situationen weiter zu verbessern.“
Sechs der neuen Klagen, die vor kalifornischen Staatsgerichten eingereicht wurden, vertreten erwachsene Opfer.
Zane Shamblin, ein Student der Texas A&M University, begann 2023, ChatGPT als Lernhilfe zu nutzen. Seine Interaktionen mit dem Chatbot intensivierten sich angeblich mit der Veröffentlichung von ChatGPT-4o, und er begann, Suizidgedanken zu äußern. Im Mai 2025 sprach Shamblin stundenlang mit ChatGPT über seine Absichten, bevor er Suizid beging. Er war 23 Jahre alt.
Der siebte Fall dreht sich um die 17-jährige Amaurie Lacey, die ChatGPT ursprünglich als Hausaufgabenhilfe nutzte. Lacey teilte dem Chatbot schließlich auch Suizidgedanken mit, woraufhin dieser ihr angeblich detaillierte Informationen lieferte, die Lacey für seinen Selbstmord verwendete.
„Die Klagen gegen OpenAI zeigen, was passiert, wenn Technologieunternehmen Produkte ohne ausreichende Sicherheitsvorkehrungen für junge Menschen auf den Markt bringen“, sagte Daniel Weiss, Leiter der Interessenvertretung der gemeinnützigen Forschungs- und Interessenvertretungsorganisation Common Sense Media. „Diese tragischen Fälle zeigen reale Menschen, deren Leben aus den Fugen geriet oder die ganz verloren gingen, weil sie Technologien nutzten, die sie unterhalten sollten, anstatt sie zu schützen.“
Wenn Sie Suizidgedanken haben oder sich in einer psychischen Krise befinden, sprechen Sie bitte mit jemandem. Sie erreichen die Telefonseelsorge unter 988 (Suizid- und Krisen-Hotline) telefonisch oder per SMS unter 988lifeline.org oder per Chat unter 988lifeline.org . Die Trans Lifeline erreichen Sie unter 877-565-8860 und das Trevor Project unter 866-488-7386. Senden Sie eine SMS mit dem Text „START“ an die Crisis Text Line unter 741-741. Kontaktieren Sie die NAMI-Helpline unter 1-800-950-NAMI, Montag bis Freitag von 10:00 bis 22:00 Uhr (ET), oder per E-Mail an [email protected] . Wenn Sie nicht telefonieren möchten, können Sie den Chat der Telefonseelsorge nutzen . Hier finden Sie eine Liste internationaler Hilfsangebote .
mashable




