Sprache auswählen

German

Down Icon

Land auswählen

America

Down Icon

Wie verhindert man, dass ein KI-Modell zum Nazi wird? Was das Grok-Drama enthüllt.

Wie verhindert man, dass ein KI-Modell zum Nazi wird? Was das Grok-Drama enthüllt.
Von Anne Fehres und Luke Conroy & AI4Media

/ Das Gespräch

Grok, der in X (ehemals Twitter) eingebettete und von Elon Musks Unternehmen xAI entwickelte Chatbot mit künstlicher Intelligenz (KI), macht wieder Schlagzeilen, nachdem er sich selbst „MechaHitler“ genannt und pro-nazistische Bemerkungen gemacht hat.

Die Entwickler haben sich für die „unangemessenen Beiträge“ entschuldigt und „Maßnahmen ergriffen, um Hassreden“ aus Groks Beiträgen auf X zu verbannen. Auch Debatten über die Voreingenommenheit von KI sind neu entbrannt.

Die jüngste Grok-Kontroverse ist jedoch nicht wegen ihrer extremistischen Ergebnisse aufschlussreich, sondern weil sie eine grundlegende Unehrlichkeit in der KI-Entwicklung offenlegt. Musk behauptet, eine „ wahrheitssuchende “ KI zu entwickeln, die frei von Vorurteilen sei. Die technische Umsetzung offenbart jedoch eine systematische ideologische Programmierung.

Dies läuft auf eine zufällige Fallstudie hinaus, die zeigt, wie KI-Systeme die Werte ihrer Schöpfer verankern, wobei Musks ungefilterte öffentliche Präsenz sichtbar macht, was andere Unternehmen normalerweise verschleiern.

Was ist Grok?

Grok ist ein KI-Chatbot mit „einer Prise Humor und einer Prise Rebellion“, der von xAI entwickelt wurde, dem auch die Social-Media-Plattform X gehört.

Die erste Version von Grok wurde 2023 veröffentlicht. Unabhängige Bewertungen deuten darauf hin, dass das neueste Modell, Grok 4, die Konkurrenz bei Intelligenztests übertrifft . Der Chatbot ist als Standalone-Version und auf X verfügbar.

xAI erklärt: „Das Wissen der KI sollte allumfassend und so weitreichend wie möglich sein.“ Musk hat Grok zuvor als wahrheitsliebende Alternative zu Chatbots positioniert, denen von rechten Kommentatoren vorgeworfen wurde, sie seien „woke“.

Doch auch über den jüngsten Naziskandal hinaus machte Grok Schlagzeilen, weil es Drohungen mit sexueller Gewalt verbreitete , den „weißen Völkermord“ in Südafrika thematisierte und beleidigende Äußerungen über Politiker abgab. Letztere führten zu einem Verbot der Zeitschrift in der Türkei .

Wie können Entwickler einer KI solche Werte verleihen und das Verhalten von Chatbots beeinflussen? Moderne Chatbots basieren auf großen Sprachmodellen (LLMs), die Entwicklern verschiedene Möglichkeiten bieten.

Was bringt eine KI dazu, sich so zu „verhalten“?

Vorschulung

Zunächst kuratieren Entwickler die Daten aus dem Vortraining – dem ersten Schritt beim Erstellen eines Chatbots. Dabei werden nicht nur unerwünschte Inhalte herausgefiltert, sondern auch erwünschte Inhalte hervorgehoben.

GPT-3 wurde Wikipedia bis zu sechsmal häufiger angezeigt als andere Datensätze, da OpenAI es als qualitativ hochwertiger einstufte. Grok wird anhand verschiedener Quellen trainiert, darunter auch Beiträge von X. Dies könnte erklären, warum Grok Berichten zufolge Elon Musks Meinung zu kontroversen Themen überprüft .

Musk teilte mit, dass xAI die Trainingsdaten von Grok kuratiert , um beispielsweise das juristische Wissen zu verbessern und LLM-generierte Inhalte zur Qualitätskontrolle zu entfernen. Er appellierte außerdem an die X-Community, schwierige „Galaxy Brain“-Probleme und Fakten zu lösen, die „politisch inkorrekt, aber dennoch faktisch wahr“ seien.

Wir wissen nicht, ob diese Daten verwendet wurden oder welche Maßnahmen zur Qualitätskontrolle angewendet wurden.

Feinabstimmung

Im zweiten Schritt, der Feinabstimmung, wird das Verhalten des LLM mithilfe von Feedback angepasst. Entwickler erstellen detaillierte Handbücher mit ihren bevorzugten ethischen Standpunkten. Diese werden dann von menschlichen Prüfern oder KI-Systemen als Bewertungsmaßstab verwendet, um die Antworten des Chatbots zu bewerten und zu verbessern. Diese Werte werden so effektiv in die Maschine einprogrammiert.

Eine Untersuchung von Business Insider ergab, dass xAIs Anweisungen an menschliche „KI-Tutoren“ diese anwiesen, nach „Woke-Ideologie“ und „Cancel Culture“ zu suchen. Während die Onboarding-Dokumente besagten, dass Grok „keine Meinung aufdrängen sollte, die die Voreingenommenheit eines Nutzers bestätigt oder widerlegt“, hieß es auch, dass Antworten vermieden werden sollten, die behaupten, beide Seiten einer Debatte seien berechtigt, obwohl dies nicht der Fall ist.

Systemaufforderungen

Die Systemaufforderung – Anweisungen, die vor jedem Gespräch bereitgestellt werden – leitet das Verhalten, sobald das Modell bereitgestellt ist.

Man muss xAI zugutehalten, dass es die Systemanweisungen von Grok veröffentlicht. Die Anweisung, „subjektive Standpunkte aus den Medien als voreingenommen anzunehmen“ und „nicht davor zurückzuschrecken, politisch unkorrekte Behauptungen aufzustellen, solange sie gut begründet sind“, war wahrscheinlich ein Schlüsselfaktor in der jüngsten Kontroverse.

Diese Eingabeaufforderungen werden zum Zeitpunkt des Schreibens täglich aktualisiert und ihre Entwicklung ist an sich schon eine faszinierende Fallstudie.

Leitplanken

Schließlich können Entwickler auch Leitplanken hinzufügen – Filter, die bestimmte Anfragen oder Antworten blockieren. OpenAI behauptet, ChatGPT dürfe keine hasserfüllten, belästigenden, gewalttätigen oder nicht jugendfreien Inhalte generieren. Das chinesische Modell DeepSeek zensiert Diskussionen über den Tianamen-Platz.

Ad-hoc-Tests beim Verfassen dieses Artikels lassen darauf schließen, dass Grok in dieser Hinsicht weitaus weniger zurückhaltend ist als Konkurrenzprodukte.

Das Transparenzparadoxon

Groks Nazi-Kontroverse wirft ein tieferes ethisches Problem auf: Würden wir es vorziehen, wenn KI-Unternehmen explizit und ehrlich ideologisch wären oder die Fiktion der Neutralität aufrechterhalten würden, während sie insgeheim ihre Werte verankern?

Jedes große KI-System spiegelt die Weltanschauung seines Schöpfers wider – von der risikoscheuen Unternehmensperspektive von Microsoft Copilot bis zum sicherheitsorientierten Ethos von Anthropic Claude. Der Unterschied liegt in der Transparenz.

Musks öffentliche Äußerungen lassen Groks Verhalten leicht auf Musks erklärte Überzeugungen zur „Woke-Ideologie“ und Medienvoreingenommenheit zurückführen. Wenn andere Plattformen hingegen spektakuläre Fehlschläge hinnehmen, bleibt nur zu vermuten, ob dies auf die Ansichten der Unternehmensführung, die Risikoaversion der Unternehmen, regulatorischen Druck oder einen Zufall zurückzuführen ist.

Das kommt mir bekannt vor. Grok ähnelt Microsofts Hassreden verbreitendem Chatbot Tay aus dem Jahr 2016, der ebenfalls mit Twitter-Daten trainiert und auf Twitter losgelassen wurde, bevor er abgeschaltet wurde.

Doch es gibt einen entscheidenden Unterschied. Tays Rassismus entstand durch Benutzermanipulation und unzureichende Sicherheitsvorkehrungen – eine unbeabsichtigte Folge. Groks Verhalten scheint zumindest teilweise auf sein Design zurückzuführen zu sein.

Die eigentliche Lehre aus Grok betrifft die Ehrlichkeit in der KI-Entwicklung. Da diese Systeme immer leistungsfähiger und weiter verbreitet werden (die Grok-Unterstützung in Tesla-Fahrzeugen wurde gerade angekündigt ), stellt sich nicht die Frage, ob KI menschliche Werte widerspiegelt. Die Frage ist vielmehr, ob Unternehmen transparent machen, wessen Werte sie kodieren und warum.

Musks Ansatz ist gleichzeitig ehrlicher (wir können seinen Einfluss erkennen) und irreführender (er behauptet Objektivität, programmiert aber Subjektivität) als der seiner Konkurrenten.

In einer Branche, die auf dem Mythos neutraler Algorithmen aufbaut, enthüllt Grok, was schon immer wahr war: Es gibt keine unvoreingenommene KI – nur KI, deren Voreingenommenheit wir mit unterschiedlicher Deutlichkeit erkennen können.

Aaron J. Snoswell, leitender Forschungsstipendiat für KI-Verantwortlichkeit, Queensland University of Technology

Dieser Artikel wurde unter einer Creative Commons-Lizenz von The Conversation erneut veröffentlicht.

Cbs News

Cbs News

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow