Apples Paper wirft Schatten auf LLMs: Sind große Reasonings-Modelle grundlegend limitiert?
Ein aktueller Apple-Artikel behauptet, dass große Reasonings-Modelle (LRMs) Einschränkungen bei der exakten Berechnung aufweisen, keine expliziten Algorithmen verwenden und inkonsistent über Rätsel hinweg argumentieren. Dies wird als erheblicher Schlag für den aktuellen Trend angesehen, LLMs und LRMs als Grundlage für AGI zu verwenden. Ein Gegenartikel auf arXiv versucht, die Ergebnisse von Apple zu widerlegen, ist aber fehlerhaft. Er enthält mathematische Fehler, vermengt mechanische Ausführung mit der Komplexität des Reasonings und seine eigenen Daten widersprechen seinen Schlussfolgerungen. Kritisch ist, dass der Gegenartikel Apples Schlüsselfeststellung ignoriert, dass Modelle den Rechenaufwand bei schwierigeren Problemen systematisch reduzieren, was auf grundlegende Skalierungsgrenzen in aktuellen LRM-Architekturen hindeutet.