Sentence Transformers를 사용한 400배 더 빠른 정적 임베딩 모델

2025-01-15
Sentence Transformers를 사용한 400배 더 빠른 정적 임베딩 모델

이 블로그 게시물에서는 최첨단 임베딩 모델보다 CPU에서 100배에서 400배까지 더 빠르게 실행되는 정적 임베딩 모델을 훈련하는 방법을 소개합니다. 이는 기기에서 및 브라우저에서의 실행, 에지 컴퓨팅, 저전력 및 임베디드 애플리케이션과 같은 흥미로운 사용 사례를 제공합니다. 이 레시피를 사용하여 영어 검색을 위한 sentence-transformers/static-retrieval-mrl-en-v1 및 다국어 유사성 작업을 위한 sentence-transformers/static-similarity-mrl-multilingual-v1이라는 두 가지 매우 효율적인 임베딩 모델을 훈련했습니다.