Das Problem der Wortfülle: Warum LLMs aufgeblähten Code erzeugen

2025-05-14
Das Problem der Wortfülle: Warum LLMs aufgeblähten Code erzeugen

Dieser Artikel untersucht das Problem, dass Large Language Models (LLMs) übermäßig wortreichen und ineffizienten Code erzeugen. Der Autor argumentiert, dass das tokenbasierte Preismodell vieler KI-Codierassistenten die Erzeugung langen Codes anregt, selbst wenn er weniger effizient ist. Dies liegt daran, dass mehr verarbeitete Tokens mehr Umsatz bedeuten. Der Autor beschreibt Strategien, um dies abzumildern, darunter das Erzwingen der Planung vor der Implementierung, die Implementierung strikter Genehmigungsprotokolle, die Verwendung von Git für Experimente und rücksichtsloses Pruning sowie die Verwendung günstigerer Modelle. Die ultimative Lösung, so der Autor, besteht darin, dass KI-Unternehmen ihre wirtschaftlichen Anreize so ändern, dass sie die Codequalität gegenüber der Token-Anzahl priorisieren.