Clínica Mayo resolve o problema de alucinação de LLM com RAG reverso
2025-03-15

Os grandes modelos de linguagem (LLMs) sofrem de 'alucinações' - gerando informações imprecisas - um problema particularmente perigoso na área da saúde. A Clínica Mayo abordou isso com uma nova técnica de 'RAG reverso'. Ao vincular informações extraídas à sua fonte original, esse método eliminou quase todas as alucinações baseadas na recuperação de dados, permitindo a implantação do modelo em toda a sua prática clínica. A técnica combina o algoritmo CURE e bancos de dados vetoriais, garantindo a rastreabilidade de cada ponto de dados à sua origem. Isso aumenta a confiabilidade e a credibilidade do modelo, reduzindo significativamente a carga de trabalho dos médicos e abrindo novas possibilidades para a medicina personalizada.