TAO de Databricks : surpasser l'ajustement fin avec des données non étiquetées
2025-03-26
Databricks présente TAO (Test-time Adaptive Optimization), une nouvelle méthode d'ajustement fin des modèles ne nécessitant que des données d'utilisation non étiquetées. Contrairement à l'ajustement fin traditionnel, TAO utilise le calcul en temps de test et l'apprentissage par renforcement pour améliorer les performances du modèle en fonction d'exemples d'entrée précédents. Étonnamment, TAO surpasse l'ajustement fin traditionnel, rapprochant les modèles open source comme Llama d'une qualité comparable à celle de modèles propriétaires coûteux comme GPT-4. Cette innovation est disponible en préversion pour les clients Databricks et alimentera les futurs produits.