LLMのメモリコストを最大75%削減する画期的な技術
2024-12-17
東京に拠点を置くスタートアップ企業Sakana AIは、「ユニバーサル・トランスフォーマー・メモリ」と呼ばれる画期的な技術を開発しました。これは、大規模言語モデル(LLM)のメモリ効率を大幅に向上させるものです。ニューラル・アテンション・メモリ・モジュール(NAMM)を使用して、冗長な情報を破棄し、重要な詳細を保持するインテリジェントなエディターとして機能します。これにより、メモリコストを最大75%削減し、さまざまなモデルやタスクでのパフォーマンスを向上させることができます。LLMを利用する企業にとって大きなメリットとなります。