Sprache auswählen

German

Down Icon

Land auswählen

Spain

Down Icon

„Es ist eine Illusion“: Eine Apple-Studie stellt den größten Mythos der künstlichen Intelligenz in Frage.

„Es ist eine Illusion“: Eine Apple-Studie stellt den größten Mythos der künstlichen Intelligenz in Frage.

Apple hat vor einigen Tagen mit der Veröffentlichung einer Studie eine Kontroverse in der Welt der künstlichen Intelligenz (KI) ausgelöst, die sich direkt gegen eine der diskursiven Säulen dieser Technologie richtet: die angebliche Fähigkeit von Modellen wie ChatGPT , „logisch zu denken“.

In dem Artikel mit dem Titel „Die Illusion des Denkens “ wird argumentiert, dass generative KI-Systeme trotz des Anscheins nicht wie Menschen denken oder schlussfolgern und dass sogar die „Schlussfolgerung“, die sie scheinbar an den Tag legen , kontraproduktiv sein kann .

Die von Wissenschaftlern bei Apple Machine Learning Research durchgeführte Forschung kommt zu einem Zeitpunkt, an dem das Unternehmen aus Cupertino hinter Konkurrenten wie OpenAI , Google und Anthropic, den führenden Unternehmen in der Entwicklung fortgeschrittener Sprachmodelle, zurückzuliegen scheint.

Aus diesem Grund betrachteten viele Beobachter die Studie schnell als einen Versuch , externe Darstellungen in Frage zu stellen, und nicht als einen rein akademischen Beitrag.

Dennoch blieb der Inhalt der Arbeit nicht unbemerkt. Apple schlägt eine neue Kategorie von Modellen namens Large Reasoning Models (LRMs) vor, die darauf ausgelegt sind, Zwischenergebnisse zu generieren, bevor eine Antwort geliefert wird. Das Ziel: zu bewerten, ob die explizite Einbeziehung logischer Prozesse die KI-Leistung bei verschiedenen Aufgabentypen verbessert.

Warum Apple behauptet, dass Modelle wie ChatGPT nicht denken

„Die Illusion des Denkens“: Das Papier, mit dem Apple versucht, KI zu entlarven.

Um Verzerrungen durch die im Training gewonnenen Daten zu vermeiden , unterzogen die Forscher ihre Modelle einer Reihe synthetischer Rätsel , wie beispielsweise dem klassischen Turm von Hanoi, Damespringen, Flussüberquerungen und Blockmanipulationsproblemen (Blocks World). Diese Szenarien wurden speziell entwickelt, um logisches Denken und schrittweise Planung zu erfordern .

Die Ergebnisse waren überraschend: Obwohl LRMs bei Herausforderungen mittlerer Komplexität einen Vorteil gegenüber herkömmlichen Modellen zeigten, brachen sie bei zunehmender Schwierigkeit vollständig zusammen .

Darüber hinaus sei dieser Zusammenbruch nicht auf einen Mangel an Rechenressourcen zurückzuführen, sondern auf ein rätselhafteres Phänomen: „Ihr Denkaufwand steigt mit der Komplexität des Problems bis zu einem bestimmten Punkt an und nimmt dann trotz eines ausreichenden Budgets ab.“

Auffällig ist, dass die Schlussfolgerungsmodelle bei einfachen Tests sogar noch schlechter abschneiden als die Standardmodelle . Das heißt, wenn Aufgaben keine fortgeschrittene Logik erfordern, kann übermäßiges Nachdenken zum Hindernis werden .

„Bei der Untersuchung des ersten Fehlzugs der Modelle zeigte sich ein überraschendes Verhalten . So konnten sie beispielsweise beim Turm von Hanoi bis zu 100 richtige Züge machen, beim Flussüberquerungsrätsel schafften sie es jedoch nicht, mehr als 5 richtige Züge zu machen“, fügen die Autoren hinzu.

Insgesamt scheint die Studie die immer weiter verbreitete Ansicht in Frage zu stellen , wir stünden kurz vor der Entwicklung künstlicher Intelligenz auf menschlichem Niveau oder sogar einer AGI ( Artificial General Intelligence ).

Apple weist darauf hin, dass diese Idee auf einer Illusion beruht: Die Fähigkeit der Modelle, logische Schritte zu verbalisieren, wird mit einem echten Verständnis der Probleme verwechselt.

In diesem Sinne ist die Schlussfolgerung der Arbeit eindeutig: Was wie logisches Denken aussieht, ist nichts weiter als das Echo erlernter Muster . KI denkt, zumindest derzeit, nicht logisch: Sie simuliert . Und wenn die Simulation über ihre bekannten Grenzen hinausgeht, bricht sie zusammen .

Apple hinkt im KI-Rennen hinterher

Apple hat bisher noch kein eigenes Modell auf den Markt gebracht, das mit gleichen Wettbewerbsbedingungen konkurrieren kann. (Foto: Reuters) Apple hat bisher noch kein eigenes Modell auf den Markt gebracht, das mit gleichen Wettbewerbsbedingungen konkurrieren kann. (Foto: Reuters)

Diese Vision steht im Gegensatz zum Ansatz anderer Technologiegiganten, die explizit logische Funktionen in ihre Modelle integriert haben. OpenAI mit GPT-4 , Google mit Gemini und Anthropic mit Claude zielen alle darauf ab, diese Fähigkeiten zu stärken, was als Schritt hin zu autonomeren und zuverlässigeren Systemen gilt.

Auf der kritischen Seite gab es zahlreiche Stimmen, die darauf hinwiesen, dass Apples Studie keinen gravierenden Fehler aufdecke, sondern lediglich ein bekanntes Phänomen beschreibe: das sogenannte Overthinking . Dabei handelt es sich um die Tendenz mancher Modelle , unnötig lange und komplexe Schlussfolgerungen zu ziehen , was zu Fehlern oder Abstürzen führen kann.

Es stellt sich auch die Frage, ob Apple, da es keine eigene KI auf Augenhöhe mit der Konkurrenz hat , einen Anreiz hat, die Fortschritte anderer zu diskreditieren. Das Unternehmen unterhält Partnerschaften mit Akteuren wie OpenAI, hat aber bisher kein eigenes, wettbewerbsfähiges Sprachmodell auf den Markt gebracht .

Über die Absichten hinter dem Papier hinaus ist es Apple tatsächlich gelungen, eine wichtige Diskussion auf den Tisch zu bringen: Was bedeutet „Denken“ für künstliche Intelligenz wirklich? Verwechseln wir Form mit Substanz?

Inmitten der Euphorie um Konversationssysteme stellt „Die Illusion des Denkens“ eine Herausforderung dar. Und obwohl es die Debatte nicht beendet, stellt es eine der am häufigsten wiederholten Fantasien der Gegenwart in Frage: dass Maschinen endlich anfangen zu denken.

Clarin

Clarin

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow