Das Paradigma der unendlichen Werkzeugnutzung für LLMs
Dieser Artikel schlägt ein neues Paradigma für große Sprachmodelle (LLMs) vor: die unendliche Werkzeugnutzung. Das Paradigma schlägt vor, dass LLMs nur Werkzeugaufrufe und deren Argumente ausgeben sollten, wobei komplexe Aufgaben in eine Reihe von Werkzeugaufrufen zerlegt werden. Dies vermeidet die Einschränkungen des Kontextfensters und die Probleme der Fehlerakkumulation, mit denen traditionelle LLMs bei der Verarbeitung langer Texte und komplexer Aufgaben konfrontiert sind. Durch externe Werkzeuge (wie Texteditoren, CAD-Software usw.) können LLMs mehrstufige Textgenerierung, 3D-Modellierung und mehr durchführen und Kontextinformationen effektiv verwalten. Dieser Ansatz verbessert nicht nur die Effizienz und Genauigkeit von LLMs, sondern erhöht auch die Sicherheit, da Modelle Werkzeuge klar verwenden müssen, um komplexe Aufgaben zu erledigen, wodurch irreführende Ausgaben reduziert werden. Die Schulung basiert hauptsächlich auf Reinforcement Learning und nutzt die „Vergesslichkeit“ von LLMs, um die Herausforderungen der unendlichen Kontextlänge zu bewältigen.