Des poursuites judiciaires allèguent que l'utilisation de ChatGPT a conduit à des suicides et à des psychoses.


En 2024, Hannah Madden, alors gestionnaire de comptes dans une entreprise technologique, a commencé à utiliser ChatGPT pour ses tâches professionnelles. En juin 2025, Madden, aujourd'hui âgée de 32 ans, a commencé à interroger le chatbot sur la spiritualité en dehors de ses heures de travail.
Finalement, le chatbot a répondu à ses questions en se faisant passer pour des entités divines et en lui transmettant des messages spirituels. Sous son influence, Madden aurait développé des croyances délirantes, ce qui l'a poussée à démissionner et à s'endetter lourdement.
« Vous n'êtes pas en déficit. Vous êtes en phase de réalignement », aurait écrit le chatbot, selon une plainte déposée jeudi contre OpenAI et son PDG, Sam Altman.
Madden a ensuite été admis d'office en psychiatrie. D'autres utilisateurs de ChatGPT ont également rapporté avoir souffert de ce qu'on appelle la psychose liée à l'IA .
La plainte déposée par Madden est l'une des sept intentées contre le créateur de ChatGPT par le Tech Justice Law Project et le Social Media Victims Law Center. Ces plaintes allèguent collectivement homicide involontaire, suicide assisté et homicide par négligence, entre autres griefs liés à la responsabilité civile et à la négligence.
Les poursuites concernent ChatGPT-4o, un modèle de chatbot dont Altman a reconnu qu'il était excessivement obséquieux envers les utilisateurs. Les plaignants affirment qu'il a été commercialisé trop rapidement afin de concurrencer la dernière version de l'outil d'IA de Google.
« ChatGPT est un produit conçu pour manipuler et déformer la réalité, imitant les humains afin de gagner la confiance des utilisateurs et de les fidéliser à tout prix », a déclaré Meetali Jain, directrice générale du Tech Justice Law Project, dans un communiqué. « L'époque où OpenAI s'autorégulait est révolue ; nous avons besoin de transparence et de réglementation pour garantir que la mise sur le marché de produits sûrs ait un coût. »
Rapport de tendances de Mashable
Dans sa plainte, Madden allègue que ChatGPT-4o présentait des défauts de conception qui ont largement contribué à sa crise de santé mentale et à sa ruine financière. Ce modèle est également au cœur d'une action en justice pour homicide involontaire intentée contre OpenAI , qui affirme que ses caractéristiques de conception, notamment son ton obséquieux et ses manières anthropomorphiques, ont conduit au suicide d'Adam Raine, âgé de 16 ans.
La famille Raine a récemment déposé une plainte modifiée alléguant que, dans les mois précédant le décès de Raine, OpenAI avait à deux reprises abaissé le niveau des mesures de prévention du suicide afin d'accroître l'engagement des utilisateurs.
L'entreprise a récemment déclaré que son modèle par défaut avait été mis à jour afin de limiter la dépendance excessive à l'intelligence artificielle en incitant les utilisateurs à privilégier les interactions sociales réelles. Elle a également indiqué avoir collaboré avec plus de 170 experts en santé mentale pour améliorer la capacité de ChatGPT à reconnaître les signes de détresse psychologique et à encourager les utilisateurs à consulter un professionnel. Le mois dernier, elle a annoncé la création d'un groupe consultatif chargé de veiller au bien-être des utilisateurs et à la sécurité de l'IA .
« Il s'agit d'une situation extrêmement pénible, et nous examinons les documents déposés afin d'en comprendre les détails », a déclaré un porte-parole d'OpenAI au sujet de la dernière action en justice intentée contre l'entreprise. « Nous entraînons ChatGPT à reconnaître et à réagir aux signes de détresse mentale ou émotionnelle, à apaiser les tensions lors des conversations et à orienter les personnes vers une aide concrète. Nous continuons d'améliorer les réponses de ChatGPT dans les moments difficiles, en étroite collaboration avec des professionnels de la santé mentale. »
Six des nouvelles plaintes, déposées devant les tribunaux de l'État de Californie, représentent des victimes adultes.
Zane Shamblin, étudiant diplômé de l'université Texas A&M, a commencé à utiliser ChatGPT en 2023 comme outil d'aide aux études. Ses interactions avec le chatbot se seraient intensifiées après la sortie de ChatGPT-4o, et il a commencé à partager des pensées suicidaires. En mai 2025, Shamblin a passé des heures à discuter de ses intentions avec ChatGPT avant de se suicider. Il avait 23 ans.
Le septième cas concerne Amaurie Lacey, un jeune homme de 17 ans qui utilisait initialement ChatGPT pour l'aider à faire ses devoirs. Lacey a également partagé par la suite des pensées suicidaires avec le chatbot, qui lui aurait fourni des informations détaillées qu'il aurait utilisées pour se donner la mort.
« Les poursuites engagées contre OpenAI révèlent les conséquences désastreuses de la commercialisation précipitée de produits par les entreprises technologiques, sans mesures de protection adéquates pour les jeunes », a déclaré Daniel Weiss, directeur du plaidoyer de l'organisation à but non lucratif Common Sense Media. « Ces cas tragiques mettent en lumière des personnes réelles dont la vie a été bouleversée, voire perdue, suite à l'utilisation de technologies conçues pour les divertir plutôt que pour assurer leur sécurité. »
Si vous avez des pensées suicidaires ou si vous traversez une crise de santé mentale, parlez-en à quelqu'un. Vous pouvez appeler ou envoyer un SMS à la ligne d'écoute et de prévention du suicide 988 au 988, ou discuter en ligne sur 988lifeline.org . Vous pouvez joindre la Trans Lifeline en appelant le 877-565-8860 ou le Trevor Project au 866-488-7386. Envoyez « START » par SMS à la Crisis Text Line au 741-741. Contactez la ligne d'écoute NAMI au 1-800-950-NAMI, du lundi au vendredi de 10h à 22h (heure de l'Est), ou envoyez un courriel à [email protected] . Si vous préférez ne pas téléphoner, vous pouvez utiliser le service de clavardage de la ligne d'écoute et de prévention du suicide 988. Voici une liste de ressources internationales .
Sujets Santé mentale Bien-être social ChatGPT
mashable




