Le Problème de la Verbosité : Pourquoi les LLMs Génèrent du Code Gonflé
Cet article explore le problème des grands modèles de langage (LLMs) qui génèrent du code excessivement verbeux et inefficace. L'auteur soutient que le modèle de tarification basé sur les jetons de nombreux assistants de codage IA incite à la génération de code long, même s'il est moins efficace. Cela est dû au fait que plus de jetons traités signifient plus de revenus. L'auteur décrit des stratégies pour atténuer ce problème, notamment en forçant la planification avant le codage, en implémentant des protocoles d'autorisation stricts, en utilisant Git pour l'expérimentation et l'élagage impitoyable, et en utilisant des modèles moins chers. La solution ultime, propose l'auteur, est que les entreprises d'IA modifient leurs incitations économiques pour privilégier la qualité du code plutôt que le nombre de jetons.