Metaのバイト潜在トランスフォーマー(BLT):トークンベースのLLMを凌駕

2024-12-14

Meta AIの研究者らは、トークンではなくバイトを直接処理する、新しい大規模言語モデルアーキテクチャであるバイト潜在トランスフォーマー(BLT)を発表しました。BLTは、バイトのエントロピーに基づいて計算リソースを動的に割り当てることで、トークンベースのモデルと比較して、推論効率と堅牢性が大幅に向上しています。最大80億パラメータと4テラバイトのトレーニングデータを用いたスケーリング実験では、BLTはトークンベースのLLMと同等の性能を達成し、同時に高度な推論能力とロングテールデータの処理能力を提供することが示されました。この研究は、固定された語彙を持たずに、生のバイトデータで直接大規模モデルをトレーニングする可能性を示しています。

続きを読む

Meta FAIR、画期的なAI研究とオープンソースモデルを発表

2024-12-13

Meta FAIRは、仮想的な具象エージェントの制御のための基礎モデルであるMeta Motivo、およびビデオ透かしのためのオープンソースモデルであるMeta Video Sealなど、画期的なAI研究成果を発表しました。このリリースは、エージェントの能力、堅牢性、安全性、そしてより効率的な学習のためのアーキテクチャの革新における進歩に焦点を当てています。その他の重要な貢献としては、Flow Matchingコードベース、心の理論推論のためのMeta Explore Theory-of-Mind、大規模概念モデル(LCM)、動的バイト潜在トランスフォーマーなどがあります。これらのモデルとツールをオープンソース化することにより、Metaは協調を促進し、責任あるAI開発を加速することを目指しています。

続きを読む
AI