Ingénierie inverse du client LLM de Cursor : un aperçu du fonctionnement interne d'un assistant de codage IA
Cet article explique comment les auteurs ont utilisé le framework open source TensorZero pour créer un proxy auto-hébergé et ont réussi à faire de l'ingénierie inverse du client LLM de l'assistant de codage IA Cursor. En acheminant la communication entre Cursor et les fournisseurs de LLM via TensorZero, ils ont pu observer, analyser et même optimiser les invites et les modèles utilisés par Cursor. Ils ont surmonté les défis liés au prétraitement côté serveur de Cursor et aux problèmes CORS. Finalement, ils ont obtenu une visibilité complète des interactions LLM de Cursor, y compris les invites et les réponses, permettant des tests A/B de différents modèles LLM. Ce travail fournit des informations précieuses pour comprendre et optimiser les assistants de codage IA et révèle une hiérarchie potentielle de LLM au sein de Cursor.