OpenAI admet : les hallucinations de l'IA résultent de défauts fondamentaux de l'entraînement

OpenAI a publié un article révélant que les « hallucinations » de ses grands modèles de langage ne sont pas accidentelles ; elles résultent de défauts fondamentaux de la méthodologie d’entraînement. Les modèles sont entraînés à privilégier les suppositions plutôt que d’admettre l’ignorance, car cela produit des scores plus élevés dans les systèmes d’évaluation actuels. L’article utilise l’exemple de la recherche de l’anniversaire d’un chercheur pour démontrer comment le mécanisme d’entraînement conduit à des réponses incorrectes. OpenAI reconnaît que les méthodes d’évaluation courantes récompensent ce comportement « hallucinatoire » et affirme qu’elle améliore les mécanismes d’entraînement, comme inciter les modèles à répondre plus fréquemment par « Je ne sais pas », mais résoudre complètement le problème reste un défi.