Des instructions concises provoquent des hallucinations chez l'IA

2025-05-13
Des instructions concises provoquent des hallucinations chez l'IA

Une nouvelle étude de Giskard révèle qu'informer les chatbots d'IA d'être concis peut paradoxalement augmenter les hallucinations, notamment sur des sujets ambigus. Les chercheurs ont découvert que des instructions concises limitent la capacité du modèle à identifier et à corriger les erreurs, privilégiant la concision à la précision. Même des modèles avancés comme GPT-4 sont affectés. Cela souligne la tension entre l'expérience utilisateur et la précision factuelle, incitant les développeurs à concevoir soigneusement les instructions du système.