Apples Papier hinterfragt KI-Schlussfolgern: Kein „echtes“ Schlussfolgern?

2025-06-09

Ein aktuelles Papier von Apple, "Die Illusion des Denkens", testet die Schlussfolgerungsfähigkeiten großer Sprachmodelle an Hanoi-Turm-Rätseln. Die Ergebnisse zeigen, dass die Modelle bei einfachen Problemen schlechter abschneiden als nicht-schlussfolgernde Modelle; bei mittelschweren Problemen besser; aber bei komplexen Problemen geben die Modelle auf, selbst wenn der Algorithmus bereitgestellt wird. Die Autoren hinterfragen die verallgemeinerbaren Schlussfolgerungsfähigkeiten der Modelle. Dieser Artikel argumentiert jedoch, dass die Verwendung des Hanoi-Turm-Rätsels in dem Papier als Test fehlerhaft ist. Das "Aufgeben" der Modelle kann der Vermeidung zahlreicher Schritte entspringen, nicht einer begrenzten Schlussfolgerungsfähigkeit. Das Aufgeben nach einer bestimmten Anzahl von Schritten bedeutet nicht, dass den Modellen die Schlussfolgerungsfähigkeit fehlt; dies spiegelt das menschliche Verhalten bei komplexen Problemen wider.

KI