Documento de Apple golpea a los LLMs: La Torre de Hanoi revela limitaciones
Un nuevo documento de Apple ha causado revuelo en la comunidad de IA. El documento demuestra que incluso la generación más reciente de "modelos de razonamiento" falla en resolver el clásico problema de la Torre de Hanói de manera confiable, exponiendo un fallo crítico en las capacidades de razonamiento de los Modelos de Lenguaje Grandes (LLMs). Esto coincide con las críticas de larga data de investigadores como Gary Marcus y Subbarao Kambhampati, que han destacado las capacidades limitadas de generalización de los LLMs. El documento muestra que incluso cuando se proporciona el algoritmo de solución, los LLMs aún fallan en resolver el problema de manera eficaz, lo que sugiere que su "proceso de razonamiento" no es un razonamiento lógico genuino. Esto indica que los LLMs no son una vía directa hacia la Inteligencia Artificial General (AGI), y sus aplicaciones requieren una consideración cuidadosa.