拡散LLM:言語モデルにおけるパラダイムシフト
2025-03-06
Inception Labsは、従来の自己回帰アプローチに挑戦する画期的な拡散型大規模言語モデル(dLLM)を発表しました。トークンを逐次的に予測する自己回帰モデルとは異なり、dLLMはテキストセグメントを同時に生成し、繰り返し改良します。画像やビデオモデルで成功を収めたこの手法は、現在、コード生成において同規模の従来のLLMを凌駕し、速度と効率が5~10倍向上しています。最大の利点は幻覚の減少です。dLLMは重要な部分を生成して検証してから続行するため、チャットボットやインテリジェントエージェントなど、精度が求められるアプリケーションに不可欠です。このアプローチは、複数ステップのエージェントワークフローの改善、ループの回避、計画、推論、自己修正能力の向上を約束します。
AI