反復的なデータキュレーションによるLLMファインチューニングの改善

研究者らは、反復的なデータキュレーションによって、大規模言語モデル(LLM)のパフォーマンスを大幅に向上させました。実験には、異なるサイズの2つのLLM(Gemini Nano-1とNano-2)と、異なる複雑さのタスクが使用され、約10万件のクラウドソーシングアノテーションが使用されましたが、当初は深刻なクラス不均衡(95%が良性)に悩まされていました。専門家による反復的なキュレーションとモデルのファインチューニングにより、パフォーマンスは大幅に向上しました。モデルは約40%の肯定的な例に到達し、コーエンのカッパ係数は約0.81(低複雑度)と約0.78(高複雑度)となり、専門家レベルのパフォーマンスに近づきました。これは、LLMのトレーニングにおける高品質データの重要な役割を強調しています。
続きを読む