Apple enthüllt die Grenzen des Schlussfolgerns großer Sprachmodelle
2025-06-16
Apples neue Arbeit, "Die Illusion des Denkens", hinterfragt Annahmen über große Sprachmodelle (LLMs). Kontrollierte Experimente zeigen eine kritische Schwelle, jenseits derer selbst Top-LLMs bei komplexen Problemen komplett versagen. Die Leistung verschlechtert sich nicht allmählich, sondern bricht zusammen. Modelle geben auf, selbst mit ausreichenden Ressourcen, was auf ein Verhaltensversagen und nicht auf einen Ressourcenmangel hinweist. Besorgniserregend ist, dass die Ergebnisse der Modelle selbst bei völliger Falschheit überzeugend klingen, was die Fehlererkennung erschwert. Die Forschung unterstreicht die Notwendigkeit wirklich schlussfolgernder Systeme und eines klareren Verständnisses der Grenzen aktueller Modelle.
Mehr lesen
KI