사전 훈련 없이 ARC-AGI 퍼즐 풀기: 압축 기반 접근 방식
2025-03-04
Isaac Liao와 Albert Gu는 손실 없는 정보 압축을 사용하여 ARC-AGI 벤치마크에 접근하는 새로운 방법인 CompressARC를 소개합니다. 사전 훈련이나 대규모 데이터 세트를 사용하지 않고 추론 중 압축에만 의존하여 훈련 세트에서 34.75%, 평가 세트에서 20%의 정확도를 달성했습니다. 핵심 아이디어는 더 효율적인 압축이 더 정확한 솔루션과 관련이 있다는 것입니다. CompressARC는 신경망 디코더와 경사 하강법을 사용하여 퍼즐의 간결한 표현을 찾고 합리적인 시간 내에 답을 추론합니다. 이 연구는 광범위한 사전 훈련과 데이터에 대한 기존의 의존성에 도전하고, 맞춤형 압축 목표와 효율적인 추론 시간 계산이 최소한의 입력으로부터 심오한 지능을 해제하는 미래를 시사합니다.
AI