強化学習なしでのLLMファインチューニング:Direct Preference Optimization (DPO)の紹介
2025-05-28
Togetherプラットフォームは、強化学習なしで言語モデルを人間の好みと整合させる技術であるDirect Preference Optimization (DPO)をサポートするようになりました。DPOは、プロンプト、好ましい応答、好ましくない応答を含む選好データでモデルを直接トレーニングし、より役立つ、正確で、カスタマイズされたAIアシスタントを実現します。従来の強化学習方法と比較して、DPOはよりシンプルで効率的で、実装が容易です。この記事では、DPOの仕組み、使用方法、コード例について詳しく説明し、まず教師ありファインチューニング(SFT)を行い、次にDPOで調整を行うことを推奨しています。