Au-delà de RAG : L'appel d'outils LLM inaugure une nouvelle ère pour la recherche sémantique
Cet article explore les méthodes de mise en œuvre de la recherche sémantique, en utilisant notamment les LLM pour la recherche d'incorporations vectorielles. Bien que l'intégration directe des termes de recherche de l'utilisateur et des documents donne parfois des résultats sous-optimaux, de nouvelles techniques comme Nomic Embed Text v2 améliorent les méthodes d'intégration, rapprochant les questions et les réponses dans l'espace vectoriel. De plus, les LLM peuvent synthétiser des réponses potentielles, puis utiliser ces intégrations pour rechercher des documents pertinents. L'article présente également des systèmes de génération augmentée par la récupération (RAG) basés sur les LLM, en soulignant que le RAG ne dépend pas des intégrations vectorielles et peut être combiné avec la recherche par mots clés ou des systèmes de recherche hybrides. L'auteur soutient que, malgré l'émergence de modèles à long contexte, le RAG ne disparaîtra pas car la quantité de données dépassera toujours la capacité de contexte du modèle. L'auteur privilégie l'approche d'appel d'outils LLM, illustrée par o3 et o4-mini, estimant qu'elle est plus efficace que le RAG traditionnel (une seule récupération suivie d'une réponse directe).