EM-LLM:無限コンテキストLLMのための、人間に着想を得たエピソードメモリ

2025-05-14
EM-LLM:無限コンテキストLLMのための、人間に着想を得たエピソードメモリ

EM-LLMは、人間のエピソードメモリとイベント認知を模倣することで、大規模言語モデル(LLM)の非常に長いコンテキストを処理する能力を大幅に向上させる新しいアーキテクチャです。ファインチューニングなしで、EM-LLMは入力トークンシーケンスを首尾一貫したエピソードイベントに編成し、効率的な2段階のメモリ検索メカニズムを通じて関連情報にアクセスします。LongBenchと∞-Benchベンチマークにおいて、EM-LLMはInfLLMやRAGなどの最先端の検索モデルを凌駕し、ほとんどのタスクにおいてフルコンテキストモデルをも上回ります。1000万トークンにわたる検索を成功裏に実行し、これはフルコンテキストモデルでは計算上不可能です。EM-LLMのイベントセグメンテーションと人間が認識するイベントとの強い相関関係は、人間のメモリメカニズムを探求するための新しい計算フレームワークを提供します。