ARC-AGI-Rätsel lösen ohne Pretraining: Ein komprimierungsbasierter Ansatz
Isaac Liao und Albert Gu stellen CompressARC vor, eine neue Methode, die den ARC-AGI-Benchmark mithilfe verlustfreier Informationskomprimierung bewältigt. Ohne Pretraining oder große Datensätze erreicht diese Methode eine Genauigkeit von 34,75 % im Trainingssatz und 20 % im Evaluierungssatz und verlässt sich allein auf die Komprimierung während der Inferenz. Die Kernidee ist, dass effizientere Komprimierung mit genaueren Lösungen korreliert. CompressARC verwendet einen neuronalen Netzwerkdecoder und Gradientenabstieg, um eine kompakte Darstellung des Rätsels zu finden und die Antwort innerhalb eines angemessenen Zeitrahmens zu inferieren. Diese Arbeit stellt die konventionelle Abhängigkeit von umfangreichem Pretraining und Daten in Frage und deutet auf eine Zukunft hin, in der maßgeschneiderte Komprimierungsziele und effiziente Inferenzzeitberechnung tiefe Intelligenz aus minimalen Eingaben freisetzen.
Mehr lesen