LLMs: Symbole manipulieren oder die Welt verstehen?
2025-06-04
Dieser Artikel hinterfragt die vorherrschende Annahme, dass Large Language Models (LLMs) die Welt verstehen. Obwohl LLMs in sprachlichen Aufgaben hervorragend abschneiden, argumentiert der Autor, dass dies auf ihrer Fähigkeit beruht, Heuristiken zum Vorhersagen des nächsten Tokens zu lernen, anstatt ein echtes Weltmodell zu erstellen. Der Autor behauptet, dass eine wahre AGI ein tiefes Verständnis der physischen Welt erfordert, eine Fähigkeit, die LLMs derzeit fehlt. Der Artikel kritisiert den multimodalen Ansatz für AGI und befürwortet stattdessen verkörperte Kognition und Interaktion mit der Umwelt als Hauptbestandteile zukünftiger Forschung.