Documento da Apple lança dúvidas sobre LLMs: Modelos de raciocínio amplos são fundamentalmente limitados?

2025-06-16

Um artigo recente da Apple afirma que os Modelos de Raciocínio Amplos (LRMs) têm limitações em cálculos exatos, falhando em utilizar algoritmos explícitos e raciocinando de forma inconsistente em quebra-cabeças. Isso é considerado um golpe significativo na busca atual pelo uso de LLMs e LRMs como base para AGI. Um artigo de refutação no arXiv tenta contrariar as descobertas da Apple, mas é falho. Contém erros matemáticos, confunde execução mecânica com complexidade de raciocínio e seus próprios dados contradizem suas conclusões. Criticamente, a refutação ignora a descoberta chave da Apple de que os modelos reduzem sistematicamente o esforço computacional em problemas mais difíceis, sugerindo limitações de dimensionamento fundamentais nas arquiteturas atuais de LRM.