Der fatale Mangel von LLMs: Das Fehlen von Weltmodellen
Dieser Essay untersucht einen fundamentalen Mangel großer Sprachmodelle (LLMs): das Fehlen robuster kognitiver Weltmodelle. Am Beispiel von Schach wird gezeigt, wie LLMs trotz des Memorierens von Spieldaten und Regeln darin scheitern, dynamische Modelle des Spielbretts zu erstellen und aufrechtzuerhalten, was zu illegalen Zügen und anderen Fehlern führt. Dieses Problem beschränkt sich nicht auf Schach; in verschiedenen Bereichen, von der Textverständigung und Bilderzeugung bis zum Verständnis von Videos, führen fehlende Weltmodelle bei LLMs zu Halluzinationen und Ungenauigkeiten. Der Autor argumentiert, dass der Aufbau robuster Weltmodelle für die Sicherheit von KI entscheidend ist, hebt die Grenzen der aktuellen LLM-Designs bei der Bewältigung komplexer realer Szenarien hervor und fordert KI-Forscher auf, die Kognitionswissenschaft bei der Entwicklung zuverlässigerer KI-Systeme zu priorisieren.