Alucinaciones de los Modelos de Lenguaje Grandes: La Memoria que Falta
2025-09-10
El autor contrasta el procesamiento de información de humanos y modelos de lenguaje grandes (LLMs) al relatar una experiencia personal usando una biblioteca Ruby. Los humanos poseen memoria sedimentaria, lo que les permite percibir el origen y la fiabilidad del conocimiento, evitando así conjeturas aleatorias. Los LLMs carecen de esta memoria experiencial; su conocimiento se asemeja al ADN heredado en lugar de habilidades adquiridas, lo que lleva a alucinaciones. El autor argumenta que resolver las alucinaciones de los LLMs requiere nuevos modelos de IA capaces de "vivir" y aprender del mundo real.
IA