LLMs sind keine Weltmodelle: Ein kontraintuitives Argument

2025-08-13

Dieser Artikel argumentiert, dass Large Language Models (LLMs) die Welt nicht wirklich verstehen, sondern darin exzellent sind, Textsequenzen vorherzusagen. Anhand von Beispielen wie Schach, Bildmischmodi und Multithreading in Python zeigt der Autor, dass LLMs scheinbar sinnvolle Antworten generieren können, aber die zugrunde liegende Logik und Regeln nicht verstehen. Selbst mit Korrekturen haben LLMs Schwierigkeiten mit grundlegenden Konzepten. Der Autor vermutet, dass der Erfolg von LLMs auf ingenieurtechnischen Anstrengungen beruht, nicht auf einem echten Verständnis der Welt, und sagt Durchbrüche bei „Weltmodellen“ voraus, die zu einer echten allgemeinen KI führen werden.

KI