Artículo de Apple cuestiona a los LLMs: ¿Los modelos de razonamiento a gran escala están fundamentalmente limitados?
Un artículo reciente de Apple afirma que los Modelos de Razonamiento a Gran Escala (LRMs) tienen limitaciones en el cálculo exacto, no logran utilizar algoritmos explícitos y razonan de manera inconsistente en los rompecabezas. Esto se considera un golpe significativo al impulso actual de usar LLMs y LRMs como base para la AGI. Un artículo de refutación en arXiv intenta contrarrestar los hallazgos de Apple, pero es defectuoso. Contiene errores matemáticos, confunde la ejecución mecánica con la complejidad del razonamiento y sus propios datos contradicen sus conclusiones. Críticamente, la refutación ignora el hallazgo clave de Apple de que los modelos reducen sistemáticamente el esfuerzo computacional en problemas más difíciles, lo que sugiere limitaciones de escalamiento fundamentales en las arquitecturas actuales de LRM.
Leer más