Les nouveaux modèles d'OpenAI hallucinent davantage : plus grand n'est pas toujours meilleur

2025-04-18
Les nouveaux modèles d'OpenAI hallucinent davantage : plus grand n'est pas toujours meilleur

Les modèles o3 et o4-mini, récemment lancés par OpenAI, bien qu'étant à la pointe de la technologie à bien des égards, présentent une augmentation inquiétante des hallucinations par rapport à leurs prédécesseurs. Des tests internes révèlent des taux d'hallucinations significativement plus élevés que les modèles de raisonnement précédents (o1, o1-mini et o3-mini), et même que les modèles traditionnels non-raisonnement tels que GPT-4o. OpenAI n'est pas sûre de la cause, ce qui pose un défi aux secteurs exigeant de la précision. Des tests tiers confirment ce problème, o3 inventant des étapes dans son processus de raisonnement. Bien qu'il excelle en codage et en mathématiques, le taux d'hallucination plus élevé limite son applicabilité. Résoudre les problèmes d'hallucinations des modèles est un domaine clé de la recherche en IA, et donner aux modèles des capacités de recherche web apparaît comme une approche prometteuse.

IA