LLMs sind überraschend günstig im Betrieb

2025-06-09

Dieser Beitrag widerlegt die weit verbreitete Fehlannahme, dass Large Language Models (LLMs) unerschwinglich teuer im Betrieb sind. Durch den Vergleich der Kosten von LLMs mit Websuchmaschinen und die Angabe verschiedener LLM-API-Preise zeigt der Autor, dass die Inferenzkosten von LLMs drastisch gesunken sind und sogar um eine Größenordnung günstiger sind als einige Suchmaschinen-APIs. Der Autor widerlegt auch gängige Einwände gegen die Preisstrategien von LLMs, wie z. B. Preissubventionen und hohe zugrunde liegende Kosten, und weist darauf hin, dass die eigentliche Kostenherausforderung in den Backend-Diensten liegt, die mit KI interagieren, nicht in den LLMs selbst.

KI