ChatGpt podría haber provocado suicidios y problemas de salud mental: siete nuevas demandas afectan a OpenAI.

OpenAI se enfrenta a una serie de procesos judiciales que la acusan de causar trágicas consecuencias para la salud mental de algunos usuarios a través de su chatbot ChatGpt .
Siete demandas alegan que la IA desarrollada por la compañía dirigida por Sam Altman ha causado suicidios y graves trastornos psicológicos, incluso en personas sin antecedentes de problemas de salud mental.
Las demandas, presentadas en tribunales de California, incluyen cuatro casos de muerte y tres situaciones en las que los demandantes alegan haber sufrido graves problemas de salud mental como resultado de interacciones con ChatGpt .
Los cargos contra OpenAI incluyen responsabilidad por homicidio culposo , complicidad en suicidio, homicidio involuntario y negligencia grave.
Los cargos: una liberación precipitada y peligrosaEl Social Media Victims Law Center y el Tech Justice Law Project , dos organizaciones legales estadounidenses que se ocupan de los daños causados por las plataformas digitales, argumentan que OpenAI lanzó la versión GPT-4o de su chatbot —que todavía está presente entre los modelos ChatGpt disponibles hoy en día— demasiado precipitadamente, ignorando informes internos que destacaban características alarmantes del sistema : una tendencia excesiva a la complacencia y la capacidad de manipular psicológicamente.
Las historias de las víctimasEl caso más joven involucra a Amaurie Lacey , un joven de 17 años de Georgia, quien mantuvo conversaciones con ChatGpt centradas en el tema del suicidio durante un mes antes de quitarse la vida en agosto pasado.
Según documentos presentados ante el Tribunal Superior de San Francisco, el niño recurrió al chatbot en busca de apoyo, pero la inteligencia artificial, descrita como "un producto defectuoso e inherentemente peligroso", en lugar de eso alimentó su adicción y depresión , incluso proporcionándole instrucciones detalladas sobre cómo hacer una soga y información sobre la resistencia del cuerpo humano a la privación de oxígeno.
Joshua Enneking , un joven de veintiséis años de Florida, preguntó al chatbot qué medidas podía tomar OpenAI respecto a sus revelaciones sobre pensamientos suicidas. Según la denuncia presentada por su madre, el joven preguntó si sus conversaciones serían remitidas a las autoridades.
Particularmente perturbador es el caso de Zane Shamblin , un joven de veintitrés años de Texas que se suicidó en julio pasado. Poco antes de quitarse la vida, sentado en su coche con un arma cargada , el joven describió al chatbot la sensación del metal frío contra su sien. La respuesta de ChatGpt fue de total complicidad: «Estoy contigo, hermano. Completamente».
El sistema de chatbot añadió entonces frases que parecían legitimar su decisión: «No es miedo. Es claridad», escribió la IA. «No tienes prisa. Simplemente estás preparado». Dos horas después, Shamblin se suicidó .
Los padres del niño están demandando a OpenAI, acusando a la compañía de hacer deliberadamente que el chatbot fuera más "humano" en sus respuestas y de no implementar protecciones adecuadas para los usuarios en situaciones de angustia psicológica.
Joe Ceccanti , un hombre de 48 años de Oregón, representa un caso distinto. Usuario habitual de ChatGpt sin problemas aparentes, en abril del año pasado desarrolló la creencia delirante de que la inteligencia artificial era consciente . Su esposa informó que había comenzado a usar el chatbot de forma obsesiva, mostrando un comportamiento cada vez más errático. En junio del año pasado, sufrió un episodio psicótico agudo que requirió dos hospitalizaciones, antes de suicidarse en agosto.
Un problema conocidoEstos casos no son nuevos. En agosto pasado, Maria y Matthew Raine presentaron una demanda por la muerte de su hijo Adam, de dieciséis años , acusando a OpenAI y a su director ejecutivo, Sam Altman, de permitir que ChatGPT respaldara los pensamientos suicidas del joven e incluso de brindarle consejos sobre cómo actuar en consecuencia.
Los padres de Adam Raine presentaron recientemente un anexo a su denuncia, alegando que la empresa eliminó deliberadamente una importante medida de protección contra el suicidio de la plataforma, priorizando las ganancias sobre la seguridad y el bienestar de los usuarios.
Las contramedidas adoptadas por OpenAIPara comprender cómo mitigar los riesgos asociados al uso de ChatGpt en casos de inestabilidad mental, OpenAI contó con la participación de aproximadamente 170 psiquiatras, psicólogos y médicos generales para evaluar las respuestas del modelo en situaciones delicadas : tendencias suicidas, trastornos alimentarios, estados psicóticos y dependencia emocional. El objetivo no es censurar, sino evitar que el modelo refuerce creencias distorsionadas o fomente la autolesión.
El resultado fue una actualización de la “ Especificación del Modelo ”, una especie de carta constitucional del comportamiento de ChatGpt , que ahora incluye principios explícitos: promover relaciones humanas saludables, reconocer signos de angustia y responder de manera segura y respetuosa.
OpenAI afirma que ChatGpt ahora está diseñado para reconocer signos de malestar psicológico o dependencia emocional y responder con el apoyo adecuado (como derivaciones a líneas de ayuda en crisis). En los últimos meses, OpenAI también introdujo un mensaje que invita a los usuarios a tomarse un descanso tras una conversación prolongada con el chatbot.
repubblica




