Die LLM-Hypeblase platzt: Der Aufstieg kleiner Sprachmodelle
Die anfängliche Begeisterung für große Sprachmodelle (LLMs) lässt nach, da viele Unternehmen noch keinen positiven Return on Investment verzeichnen. Der Autor argumentiert, dass wir von der flüssigen Sprache der LLMs getäuscht wurden und sie mit echter Intelligenz verwechselt haben. Die Zukunft, so wird vermutet, liegt in kleineren, verteilten Modellen, ähnlich der Entwicklung der Dynamotechnologie. Kleine Sprachmodelle (SLMs) konzentrieren sich auf kleinere, spezifischere Sprachaufgaben wie die Umschreibung von Suchanfragen, anstatt zu versuchen, menschliche Intelligenz zu imitieren. Dies wird die Kosten senken, die Effizienz steigern und ethische Bedenken verringern. Anstatt nach „intelligenten“ Anwendungen zu streben, plädiert der Autor dafür, LLMs für ihre Stärken in der Low-Level-Sprachverarbeitung einzusetzen, z. B. Korrekturlesen und Textzusammenfassungen. Dies ist seiner Meinung nach der richtige Weg für LLMs.