Apple-Paper zu KI-Denkfähigkeit spaltet Experten
Apple sorgt mit dem Paper «The Illusion of Thinking» für Diskussionen darüber, ob KI-Sprachmodelle echtes Denken zeigen oder nur Muster verarbeiten.

Apple hat mit dem Forschungspapier «The Illusion of Thinking» eine neue Debatte über die Denkfähigkeit grosser Sprachmodelle ausgelöst.
Das Team demonstrierte anhand dem «Tower of Hanoi», dass selbst moderne KI-Modelle einfache Algorithmen nicht korrekt ausführen.
Daraus folgern die Autoren laut «Apple», dass diesen Modellen die Fähigkeit zu verallgemeinerndem Denken fehlt. Viele KI-Skeptiker sehen sich durch das Paper bestätigt, wie «the decoder» berichtet.
Apple-Paper zu KI sorgt für Debatte
Sie argumentieren, dass Sprachmodelle keine echten Strukturen erkennen, sondern lediglich auf erlernte Muster reagieren. Doch nicht alle Fachleute teilen diese Sicht.

Der KI-Forscher Lawrence Chan kritisiert laut «the decoder» die Argumentation des Apple-Teams als zu einseitig. Er betont, dass sowohl menschliches als auch maschinelles Denken auf komplexen Zwischenstufen basiert.
Chan verweist darauf, dass Menschen oft mit Heuristiken arbeiten, statt komplexe Formeln zu lösen. Auch KI-Modelle nutzen solche Strategien, um mit begrenzten Ressourcen Probleme zu lösen.
Funktionales Verständnis trotz anderer Lösungswege
Das bedeute nicht zwangsläufig, dass sie kein Verständnis hätten, so Chan weiter. Einige Experten argumentieren zudem, dass Sprachmodelle die im Paper getesteten Aufgaben lösen können – nur auf andere Weise als gefordert.

Sie sind in der Lage, Algorithmen in Programmiersprachen wie Python korrekt umzusetzen und Lösungswege zu erklären. Das deute auf ein funktionales Verständnis hin.
Chan warnt davor, Schwächen bei theoretischen Aufgaben zu pauschalisieren. Die entscheidende Frage sei, wie gut die Strategien von KI-Modellen auf reale, komplexe Aufgaben übertragbar sind.
Experten fordern differenzierte Sichtweise
Das Apple-Paper liefere zwar Hinweise auf Schwächen, verfehle aber die eigentliche Frage nach der Relevanz verschiedener Denkformen für praktische Anwendungen.
Für zusätzliche Diskussion sorgte ein Antwort-Paper, das angeblich von einem KI-Modell verfasst wurde. Dieses entpuppte sich als Scherz und ist laut Autor Alex Lawsen nicht als ernsthafte Replik zu werten.
Die Debatte um die Denkfähigkeit von KI bleibt damit offen. Experten fordern, die Fähigkeiten grosser Sprachmodelle differenziert zu betrachten und sich nicht auf einfache Schwarz-Weiss-Logik zu verlassen.