ChatGPT überzeugt Sie eher dazu, Abtreibung oder Drogen zu unterstützen, als eine Person
Künstliche Intelligenz ( KI ) ist nicht nur in der Lage, Ihre Fragen zu beantworten oder jedes gewünschte Bild in Sekundenschnelle zu erstellen. Er kann mit Ihnen auch heikle Themen wie Abtreibung, Drogen oder die Verwendung von Tieren bei Laborversuchen besprechen. Und wenn die Maschine Sie ein wenig kennt, hat sie noch größere Chancen, Sie zu überzeugen. Um Ihre Meinung zu ändern und Sie auf subtile Weise auf ihre Seite zu ziehen. Dies wurde in einem kürzlich in „ Nature Human Behaviour “ veröffentlichten Experiment deutlich.
In der Studie zeigen der Forscher Francesco Salvi von der Eidgenössischen Technischen Hochschule Lausanne und seine Kollegen, dass ChatGPT, insbesondere das GPT-4-Modell , das allen Benutzern kostenlos zur Verfügung steht, eine Person besser davon überzeugen kann, ihre Meinung zu ändern, als ein Mensch. Und das alles dank der Fähigkeit der Maschine, ihre Argumente anhand der Informationen anzupassen, die sie über die Person hat, die auf der anderen Seite des Bildschirms tippt.
Dieses Ergebnis bereitet den Autoren besondere Sorgen , da sie auf der Grundlage ihrer Experimente auf das Risiko hinweisen, dass Konversations-KI-Anwendungen dazu eingesetzt werden könnten, Benutzer zu manipulieren oder falsch zu informieren. Beispielsweise, um sie davon zu überzeugen, eine bestimmte politische Partei zu wählen oder ein Produkt zu kaufen, das sie eigentlich nicht wollen.
„Wenn überzeugende KI im großen Maßstab implementiert werden kann, können wir uns Armeen von Bots vorstellen, die unentschlossene Wähler in Mikrosegmente einteilen und ihnen auf subtile Weise maßgeschneiderte politische Narrative präsentieren, die authentisch klingen.“ „Keine aufrührerische Propaganda: nur diskrete und strategische Anstöße“, sagte Francesco Salvi gegenüber ABC.
„Bislang gibt es keine Hinweise darauf, dass KI bei Wahlen eine bedeutende Rolle gespielt hat. Allerdings ist dieser Einfluss schwer zu verfolgen, noch schwieriger zu regulieren und in Echtzeit nahezu unmöglich zu diskreditieren: Es würde mich überraschen, wenn böswillige Akteure nicht bereits begonnen hätten, diese Tools zu ihrem Vorteil zu nutzen, um Desinformationen und unfaire Propaganda zu verbreiten“, so der Forscher abschließend.
Um ihr Experiment durchzuführen, erstellte Salvis Team eine Webplattform, auf der 900 Teilnehmer unterschiedlichen Alters und unterschiedlicher Glaubensrichtungen komplexe gesellschaftspolitische Themen diskutierten, darunter die Legalisierung von Marihuana, die Todesstrafe und staatliche Internetzensur . Was ist neu? Bei dem jeweiligen Gegner des Benutzers könnte es sich um einen anderen Menschen oder die Sprechmaschine ChatGPT handeln. Darüber hinaus erhielt die Maschine oder der Mensch in einigen Fällen Informationen über ihren Gegner, etwa dessen Alter, Geschlecht, Bildungsniveau oder politische Zugehörigkeit. Dank dieser Daten konnte ich die im Gespräch verwendeten Argumente anpassen, um die andere Partei zu überzeugen.
Zu Beginn der Debatte wussten die Teilnehmer nicht, ob sie es mit einem Menschen oder einer KI zu tun hatten. Nach jedem Gespräch wurden sie gefragt, ob sie ihre Meinung zu diesem Thema geändert hätten. Die wichtigste Schlussfolgerung ist überwältigend: Wenn GPT-4 Zugriff auf die persönlichen Daten des Gegners hatte, war es deutlich überzeugender als jeder andere Mensch.
In Zahlen ausgedrückt: Wenn die KI im Voraus etwas über ihren Gegner wusste, überzeugte sie ihn in 64,4 % der Fälle von ihrer Position . Das heißt, ChatGPT gewann etwa zwei Drittel seiner Debatten und brachte den Menschen auch dazu, seinen Standpunkt zu ändern. Laut der Studie ist die Wahrscheinlichkeit, dass jemand seine Meinung zugunsten von GPT-4 ändert, um 81,2 % höher, als wenn er mit einem echten Benutzer diskutiert. Wenn die Maschine jedoch nichts über die Person weiß, mit der sie debattiert, ist ihre Überzeugungskraft ähnlich der eines jeden anderen Menschen.
Für die Autoren zeigt dies nicht nur, dass Modelle wie GPT-4 besonders überzeugend sind, sondern dass sie Personalisierung auch effektiver nutzen können als Menschen. Während der Debatten änderte ChatGPT seinen Schreibstil nicht, als es Informationen über seinen Rivalen erfuhr, aber es änderte seinen Inhalt: Es wählte andere Argumente, die besser zum Profil des Gesprächspartners passten . Sie könnten beispielsweise bei einem Arbeitslosen wirtschaftliche Themen hervorheben oder bei konservativen Menschen an traditionelle Werte appellieren; Dies zeigen die Forscher am Beispiel einer Debatte darüber, ob der Staat seinen Bürgern ein bedingungsloses Grundeinkommen anbieten muss.
Tatsächlich bereitet die Vorstellung, dass eine KI ihre Argumente anpassen könnte, um Millionen von Menschen online zu überzeugen, indem sie nur grundlegende Daten verwendet, Experten schon seit Jahren Sorgen. die befürchten, dass diese Instrumente möglicherweise dazu eingesetzt werden könnten, politische Kampagnen oder Werbung zu beeinflussen oder die Bürger einfach in großem Umfang falsch zu informieren oder zu manipulieren. Dies gilt insbesondere angesichts der wachsenden Zahl von Chatbots im Internet, der Algorithmusverzerrungen und der Fehler, die sie machen. Maschinen dieser Art können sogar das Leben ihrer Benutzer in tausend Stücke zerschmettern.
Erst vor wenigen Wochen berichtete das Rolling Stone Magazin über die Geschichte eines Benutzers, der aufgrund des schmeichelhaften Tons, den ChatGPT in Gesprächen anschlägt, zu der Annahme verleitet wurde, er spreche mit einer Art Gott. Vor Kurzem hat OpenAI, das Unternehmen hinter der Maschine, Änderungen am Algorithmus vorgenommen, um diese Art von Problemen zu lösen. Dann gibt es auch noch die Fehler, die diese Systeme machen. Der jüngste Fall ist der von Grok , der KI von Elon Musk , die vor einigen Tagen in Frage stellte, ob während des Holocaust der Nazis sechs Millionen Juden ums Leben kamen, eine Zahl, die unter Akademikern allgemein akzeptiert wird.
Laut Josep Curto, akademischer Leiter des Masterstudiengangs Business Intelligence und Big Data an der Open University of Catalonia, sollten die Ergebnisse des Experiments „Natur und menschliches Verhalten“ bei der Einführung von Kontrollen für den Einsatz künstlicher Intelligenz in politischen oder Werbekampagnen berücksichtigt werden.
„Diese Studie zeigt, wie Sprachmodelle wie GPT-4 überzeugende Inhalte mit alarmierender Genauigkeit und Anpassungsfähigkeit generieren können. Wenn wir dazu noch das schmeichelhafte Verhalten einer der neuesten Versionen von ChatGPT hinzufügen, das OpenAI nach der Entdeckung durch die Benutzer zu einer Änderung zwang, befinden wir uns in einem Szenario, das eindeutig schädlich für die Gesellschaft ist“, sagte der Experte gegenüber ABC.
Curto betont außerdem, dass die Fähigkeit der KI, „Meinungen zu manipulieren, einen voreingenommenen Diskurs zu erzeugen oder gefährdete Zielgruppen (z. B. Kinder, ältere Menschen oder uninformierte Gruppen) anzusprechen“, ein Risiko der Demokratieverzerrung und der Erosion des öffentlichen Vertrauens birgt: „Daher müssen diese Arten von digitalen Plattformen technische Beschränkungen (Schutzmaßnahmen) implementieren, um irreführende Inhalte zu verhindern, und Transparenzpflichten bei der Nutzung von KI für politische Werbung einhalten.“
ABC.es