Jenseits von RAG: LLM-Tool-Aufrufe läuten eine neue Ära für die semantische Suche ein

2025-05-22
Jenseits von RAG: LLM-Tool-Aufrufe läuten eine neue Ära für die semantische Suche ein

Dieser Artikel untersucht Methoden zur Implementierung der semantischen Suche, insbesondere unter Verwendung von LLMs für die Suche nach Vektoreinbettungen. Während die direkte Einbettung von Suchbegriffen des Benutzers und Dokumenten manchmal zu suboptimalen Ergebnissen führt, verbessern neue Techniken wie Nomic Embed Text v2 die Einbettungsmethoden und bringen Fragen und Antworten im Vektorraum näher zusammen. Darüber hinaus können LLMs potenzielle Antworten synthetisieren und diese Einbettungen dann verwenden, um relevante Dokumente zu suchen. Der Artikel stellt auch auf LLMs basierende Retrieval-Augmented Generation (RAG)-Systeme vor und betont, dass RAG nicht von Vektoreinbettungen abhängt und mit der Keyword-Suche oder hybriden Suchsystemen kombiniert werden kann. Der Autor argumentiert, dass RAG trotz des Aufkommens von Modellen mit langem Kontext nicht verschwinden wird, da die Datenmenge immer die Kontextkapazität des Modells übersteigen wird. Der Autor bevorzugt den Ansatz des Aufrufens von LLM-Tools, veranschaulicht durch o3 und o4-mini, und glaubt, dass dieser Ansatz effektiver ist als traditionelles RAG (einmaliges Abrufen gefolgt von einer direkten Beantwortung).

KI