ChatGPT. Warnung bei Fehldiagnose

Die spanische Plattform Maldita warnte, dass Tools wie ChatGPT falsche Diagnosen stellen könnten und keinen Arzt ersetzen könnten, da auf Websites und in sozialen Netzwerken Erfahrungsberichte von Menschen kursieren, die diese künstlichen Intelligenzmodelle um Diagnosen gebeten haben.
In den sozialen Medien kursieren Behauptungen wie „Ich habe ChatGPT gebeten, meine Hand zu lesen, und es hat Hautkrebs erkannt“ oder „ChatGPT diagnostiziert bei einer Frau Krebs ein Jahr vor den Ärzten“ und behaupten, dass das Tool für künstliche Intelligenz (KI) in der Lage sei, medizinische Diagnosen zu stellen.
Gleichzeitig versicherte Elon Musk auch, dass sein Chatbot (ein virtueller Assistent, der künstliche Intelligenz und Programmierung nutzt, um per Text mit Benutzern zu kommunizieren) Diagnosen stellen könne, die „besser sind als das, was Ärzte sagen“, und in den sozialen Medien gibt es mehrere Erfahrungsberichte von Menschen, die die Tools zu diesem Zweck verwenden.
Allerdings basieren die Ergebnisse von KI-Chatbots auf Wahrscheinlichkeiten, die Trainingsdaten sind möglicherweise nicht zuverlässig und sie können nicht die umfassenden Analysen durchführen, die ein Arzt durchführen kann, heißt es auf der Plattform.
„Ein Chatbot kann weder eine notwendige medizinische Analyse durchführen noch genügend Informationen verarbeiten , um eine Diagnose stellen zu können. Daher berücksichtigt er keine anderen Faktoren wie Pathologien oder den Kontext“, warnt ein von der Plattform interviewter Arzt.
In diesem Sinne seien KI-Tools keine verlässlichen Informationsquellen und könnten Fehler machen, „die zu Fehldiagnosen, unzureichender Behandlung und Gesundheitsrisiken führen können“, weshalb es entscheidend sei, immer einen Arzt zu konsultieren, fügt er hinzu.
Die Plattform warnt außerdem davor, dass diese Art von Tools unter Halluzinationen leiden kann, die ungenaue, falsche oder verzerrte Ergebnisse erzeugen , die zur Empfehlung von Dingen führen können, die für die Gesundheit der Menschen schädlich sind.
„Sie können Ihre Gesundheit nicht riskieren, indem Sie eine Diagnose von einem System verlangen, das noch nicht robust oder zuverlässig ist“, sagt ein von Maldita kontaktierter Universitätsprofessor.
Darüber hinaus kann die Weitergabe von Gesundheitsdaten wie Bildern und medizinischen Dokumenten an KI-Chatbots auch Risiken für die Privatsphäre der einzelnen Personen bergen. Es besteht die Möglichkeit, dass Unternehmen diese Informationen zum Trainieren ihrer KI-Modelle verwenden.
observador