Sentence Transformers:训练速度提升400倍的静态嵌入模型

2025-01-15
Sentence Transformers:训练速度提升400倍的静态嵌入模型

本文介绍了一种训练静态嵌入模型的方法,该方法在CPU上的运行速度比最先进的嵌入模型快100到400倍,同时保持了大部分质量。这解锁了许多令人兴奋的用例,包括设备上和浏览器中的执行、边缘计算、低功耗和嵌入式应用。我们应用此方法训练了两个极其高效的嵌入模型:sentence-transformers/static-retrieval-mrl-en-v1(用于英文检索)和sentence-transformers/static-similarity-mrl-multilingual-v1(用于多语言相似性任务)。这些模型在CPU上的速度比all-mpnet-base-v2和multilingual-e5-small等常用模型快100到400倍,同时在各种基准测试中达到至少85%的性能。