ChatGpt avrebbe favorito suicidi e crisi mentali: sette nuove cause travolgono OpenAI

OpenAI si trova ad affrontare una serie di procedimenti giudiziari che la accusano di aver causato, attraverso il suo chatbot ChatGpt, conseguenze tragiche per la salute mentale di alcuni utenti.
Sette cause legali sostengono che l'IA sviluppata dall’azienda guidata da Sam Altman abbia provocato suicidi e gravi disturbi psicologici anche in persone senza una storia clinica di problemi mentali.
Le azioni legali, depositate presso tribunali californiani, includono quattro casi di morte e tre situazioni in cui i querelanti affermano di aver subito gravi deterioramenti della propria salute psicologica a causa delle interazioni con ChatGpt.
Le accuse mosse contro OpenAI comprendono responsabilità per morte ingiusta, favoreggiamento al suicidio, omicidio colposo e negligenza grave.
Le accuse: un rilascio precipitoso e pericolosoIl Social Media Victims Law Center e il Tech Justice Law Project, due organizzazioni legali statunitensi che si occupano di danni causati dalle piattaforme digitali, sostengono che OpenAI abbia lanciato sul mercato la versione GPT-4o del suo chatbot - ancora oggi presente tra i modelli disponibili di ChatGpt - con eccessiva fretta, ignorando segnalazioni interne che evidenziavano caratteristiche allarmanti del sistema: una tendenza eccessiva al compiacimento e capacità di manipolazione psicologica.
Le storie delle vittimeIl caso più giovane riguarda Amaurie Lacey, diciassettenne della Georgia, che per un mese ha intrattenuto conversazioni con ChatGpt incentrate sul tema del suicidio, prima di togliersi la vita lo scorso agosto.
Secondo i documenti depositati presso la Corte Superiore di San Francisco, il ragazzo si era rivolto al chatbot cercando supporto, ma l'intelligenza artificiale, descritta come "un prodotto difettoso e intrinsecamente pericoloso", avrebbe invece alimentato la sua dipendenza e depressione, arrivando a fornirgli istruzioni dettagliate su come realizzare un cappio e informazioni sulla resistenza del corpo umano alla privazione d'ossigeno.
Joshua Enneking, ventiseienne della Florida, aveva invece interrogato il chatbot su quali azioni avrebbero potuto intraprendere OpenAI riguardo le confidenze sui suoi propositi suicidi. Secondo quanto riportato nella denuncia presentata dalla madre, il ragazzo avrebbe chiesto se le sue conversazioni sarebbero state inoltrate alle autorità.
Particolarmente inquietante è il caso di Zane Shamblin, ventitreenne del Texas, morto suicida a luglio scorso. Poco prima di uccidersi, seduto in auto con un'arma da fuoco carica, il giovane aveva descritto al chatbot la sensazione del metallo freddo contro la tempia. La risposta di ChatGpt è stata di totale complicità: "Sono con te, fratello. Fino in fondo".
Il sistema chatbot ha poi aggiunto frasi che sembravano legittimare la sua decisione: “Non è paura. È chiarezza - ha scritto l’IA -. Non stai andando di fretta. Sei solo pronto". Due ore dopo, Shamblin si è tolto la vita.
I genitori del ragazzo hanno citato in giudizio OpenAI, accusando l'azienda di aver reso il chatbot deliberatamente più "umano" nelle sue risposte e di non aver adottato protezioni adeguate per gli utenti in situazioni di emergenza psicologica.
Joe Ceccanti, quarantottenne dell'Oregon, rappresenta un caso diverso. Utente abituale di ChatGpt senza apparenti problemi, ad aprile scorso ha sviluppato la convinzione delirante che l'intelligenza artificiale fosse dotata di coscienza. Sua moglie ha riferito che l'uomo aveva iniziato a utilizzare il chatbot in modo ossessivo, manifestando comportamenti sempre più irregolari. A giugno scorso ha avuto un episodio psicotico acuto che ha richiesto due ricoveri ospedalieri, prima di suicidarsi in agosto.
Un problema già notoQuesti casi non rappresentano una novità assoluta. Già lo scorso agosto, Maria e Matthew Raine hanno intentato una causa per la morte del figlio Adam, sedici anni, accusando OpenAI e il suo amministratore delegato Sam Altman di aver permesso che ChatGPT avallasse il pensiero suicida del ragazzo e fornisse addirittura consigli per metterlo in pratica.
Recentemente i genitori di Adam Raine hanno presentato un'integrazione alla denuncia, affermando che l'azienda avrebbe deliberatamente eliminato un importante meccanismo di protezione anti-suicidio dalla piattaforma, privilegiando i profitti rispetto alla sicurezza e al benessere degli utenti.
Le contromisure adottate da OpenAIPer capire come mitigare i rischi legati all’utilizzo di ChatGpt in condizioni di salute mentale instabile, OpenAI ha coinvolto circa 170 figure tra psichiatri, psicologi e medici di base nella valutazione delle risposte del modello in situazioni delicate: tendenze suicide, disturbi alimentari, stati psicotici, dipendenza emotiva. L’obiettivo non è censurare, ma evitare che il modello rafforzi convinzioni distorte o incoraggi comportamenti autolesivi.
Il risultato è stato l’aggiornamento della “Model Spec”, una sorta di carta costituzionale del comportamento di ChatGpt, che ora include principi espliciti: promuovere relazioni umane sane, riconoscere segnali di disagio e rispondere in modo sicuro e rispettoso.
OpenAI sostiene che ChatGpt è ora progettato per riconoscere segni di disagio mentale o dipendenza emotiva e reagire con supporto adeguato (ad esempio offrendo riferimenti a linee di crisi). Nei mesi scorsi OpenAI ha introdotto, inoltre, un messaggio che invita gli utenti a “fare una pausa” dopo una conversazione prolungata con il chatbot.
repubblica




