Revolutionäre Technik senkt Speicherkosten von LLMs um bis zu 75 %

2024-12-17

Das in Tokio ansässige Startup Sakana AI hat eine bahnbrechende Technik namens „Universal Transformer Memory“ entwickelt, die die Speichereffizienz großer Sprachmodelle (LLMs) deutlich verbessert. Mithilfe neuronaler Aufmerksamkeits-Speichermodule (NAMMs) fungiert die Technik wie ein intelligenter Editor, der redundante Informationen verwirft und wichtige Details behält. Dies führt zu einer Reduzierung der Speicherkosten um bis zu 75 % und zu einer verbesserten Leistung bei verschiedenen Modellen und Aufgaben, was erhebliche Vorteile für Unternehmen bietet, die LLMs einsetzen.