LLMs não são modelos de mundo: um argumento contra-intuitivo
Este artigo argumenta que os Grandes Modelos de Linguagem (LLMs) não compreendem verdadeiramente o mundo, mas sim excelência na previsão de sequências de texto. Através de exemplos como xadrez, modos de mistura de imagens e programação multithread em Python, o autor demonstra que os LLMs podem gerar respostas aparentemente razoáveis, mas carecem de compreensão da lógica e regras subjacentes. Mesmo com correções, os LLMs têm dificuldades com conceitos básicos. O autor propõe que o sucesso dos LLMs advém de esforços de engenharia, e não de uma compreensão genuína do mundo, e prevê avanços em 'modelos de mundo' que levarão à verdadeira IA geral.
Leia mais