400x schnellere statische Embedding-Modelle mit Sentence Transformers
2025-01-15
Dieser Blogbeitrag beschreibt eine Methode zum Trainieren statischer Embedding-Modelle, die auf der CPU um das 100- bis 400-fache schneller laufen als aktuelle State-of-the-Art-Embedding-Modelle, wobei die meiste Qualität erhalten bleibt. Dies erschließt viele spannende Anwendungsfälle, darunter die Ausführung auf Geräten und im Browser, Edge Computing, Low-Power- und Embedded-Anwendungen. Wir wenden dieses Rezept an, um zwei extrem effiziente Embedding-Modelle zu trainieren: sentence-transformers/static-retrieval-mrl-en-v1 für die englische Retrieval und sentence-transformers/static-similarity-mrl-multilingual-v1 für mehrsprachige Ähnlichkeitsaufgaben.