Los LLMs no son modelos del mundo: un argumento contraintuitivo
Este artículo argumenta que los Grandes Modelos de Lenguaje (LLMs) no comprenden realmente el mundo, sino que sobresalen en la predicción de secuencias de texto. A través de ejemplos como el ajedrez, los modos de fusión de imágenes y la programación multihilo en Python, el autor demuestra que los LLMs pueden generar respuestas aparentemente razonables, pero carecen de comprensión de la lógica y las reglas subyacentes. Incluso con correcciones, los LLMs tienen dificultades con conceptos básicos. El autor postula que el éxito de los LLMs se debe a los esfuerzos de ingeniería, no a una comprensión genuina del mundo, y predice avances en 'modelos del mundo' que conducirán a una verdadera IA general.
Leer más