llm-min.txt: Min.js-artige Komprimierung für LLM-Kontexte
llm-min.txt behebt das Problem des Wissensabbruchs in LLMs, bei dem KI-Codierungsassistenten keinen Zugriff auf aktuelle Updates von Programmbibliotheken haben. Es verwendet einen ähnlichen Ansatz wie min.js und nutzt eine weitere KI, um ausführliche technische Dokumentation in eine superkompakte, strukturierte Zusammenfassung zu destillieren. Unter Verwendung des strukturierten Wissensformats (SKF) organisiert es Informationen in drei Hauptbereichen (Definitionen, Interaktionen, Nutzungsmuster) und erreicht eine Tokenreduzierung von bis zu 97 %, wobei die wesentlichen Informationen für KI-Assistenten erhalten bleiben. llm-min.txt verwendet das Google Gemini KI-Modell und bietet die Verwendung über die Befehlszeile und eine Python-API.