Amélioration de l'ajustement fin des LLM grâce à la curation itérative des données
Des chercheurs ont considérablement amélioré les performances des grands modèles de langage (LLM) grâce à la curation itérative de leurs données d'entraînement. Les expériences ont impliqué deux LLM de tailles différentes (Gemini Nano-1 et Nano-2) sur des tâches de complexité variable, utilisant environ 100 000 annotations provenant de la foule, initialement affectées par un fort déséquilibre des classes (95% bénignes). Grâce à la curation itérative d'experts et à l'ajustement fin du modèle, les performances ont augmenté de manière significative. Les modèles ont atteint environ 40% d'exemples positifs et un Kappa de Cohen d'environ 0,81 (complexité inférieure) et 0,78 (complexité supérieure), se rapprochant des performances de niveau expert, soulignant le rôle crucial des données de haute qualité dans l'entraînement des LLM.