애플, 거대 언어 모델의 추론 능력 한계를 밝히다
2025-06-16
애플의 새로운 논문인 "사고의 환상"은 거대 언어 모델(LLM)에 대한 많은 가정에 의문을 제기합니다. 통제된 실험을 통해 최첨단 LLM조차도 복잡한 문제에서 특정 임계값을 넘어서면 완전히 실패한다는 사실이 밝혀졌습니다. 성능은 점진적으로 저하되는 것이 아니라 갑자기 붕괴됩니다. 모델은 충분한 자원이 있어도 시도를 중단하며, 능력 부족이 아니라 행동의 실패를 보여줍니다. 우려되는 점은 완전히 잘못되었더라도 모델의 결과가 설득력 있게 보여 오류 감지가 어렵다는 것입니다. 이 연구는 진정으로 추론하는 시스템의 필요성과 현재 모델의 한계를 더 명확하게 이해하는 중요성을 강조합니다.
AI