Kit de herramientas de código abierto: Evaluación y mitigación del riesgo de alucinaciones en LLM
Hassana Labs ha lanzado un kit de herramientas de código abierto para evaluar y mitigar el riesgo de alucinaciones en los modelos de lenguaje grandes (LLM). Sin necesidad de volver a entrenar el modelo, el kit de herramientas aprovecha la API OpenAI Chat Completions. Crea un conjunto de indicaciones debilitadas en contenido (priores rodantes) para calcular un límite superior del riesgo de alucinaciones utilizando la Ley de Descompresión a Nivel de Expectativa (EDFL). Se toma una decisión de responder o rechazar en función de un acuerdo de nivel de servicio (SLA) objetivo. Admite modos de implementación basados en evidencia y cerrados, el kit de herramientas proporciona métricas completas y una pista de auditoría para construir aplicaciones LLM más fiables.