事前学習なしでARC-AGIパズルを解く:圧縮ベースのアプローチ
2025-03-04
Isaac LiaoとAlbert Guは、損失のない情報圧縮を用いてARC-AGIベンチマークに取り組む新しい手法CompressARCを発表しました。事前学習や大規模なデータセットを使用せずに、推論時の圧縮のみに依存することで、訓練セットで34.75%、評価セットで20%の精度を達成しました。中心となる考え方は、より効率的な圧縮がより正確な解に関連するというものです。CompressARCは、ニューラルネットワークデコーダと勾配降下法を用いてパズルのコンパクトな表現を見つけ出し、合理的な時間枠内で答えを推論します。この研究は、大規模な事前学習とデータへの従来からの依存に挑戦し、調整された圧縮目標と効率的な推論時間計算が、最小限の入力から深い知性を引き出す未来を示唆しています。
AI
損失のない圧縮