LLMs: Manipulando símbolos ou entendendo o mundo?
2025-06-04

Este artigo questiona a suposição predominante de que os Grandes Modelos de Linguagem (LLMs) entendem o mundo. Embora os LLMs se destaquem em tarefas de linguagem, o autor argumenta que isso decorre de sua capacidade de aprender heurísticas para prever o próximo token, em vez de construir um modelo de mundo genuíno. O autor afirma que uma verdadeira AGI requer uma compreensão profunda do mundo físico, uma capacidade atualmente ausente nos LLMs. O artigo critica a abordagem multimodal para AGI, defendendo em vez disso a cognição incorporada e a interação com o ambiente como componentes principais da pesquisa futura.