Clínica Mayo resuelve el problema de alucinaciones de LLM con RAG inverso
Los grandes modelos de lenguaje (LLM) sufren de 'alucinaciones' – generando información imprecisa – un problema particularmente peligroso en el ámbito de la salud. La Clínica Mayo abordó esto con una novedosa técnica de 'RAG inverso'. Al vincular la información extraída a su fuente original, este método eliminó casi todas las alucinaciones basadas en la recuperación de datos, permitiendo el despliegue del modelo en toda su práctica clínica. La técnica combina el algoritmo CURE y bases de datos vectoriales, garantizando la trazabilidad de cada punto de datos a su origen. Esto aumenta la fiabilidad y la credibilidad del modelo, reduciendo significativamente la carga de trabajo de los médicos y abriendo nuevas vías para la medicina personalizada.