开源工具:评估大型语言模型幻觉风险

2025-09-09
开源工具:评估大型语言模型幻觉风险

Hassana Labs发布了一个开源工具,用于评估大型语言模型(LLM)的幻觉风险,并通过重构提示来降低风险。该工具无需重新训练模型,即可基于OpenAI Chat Completions API,通过构建一系列内容削弱的提示(滚动先验),利用期望水平解压缩定律(EDFL)计算幻觉风险上限,并根据目标服务水平协议(SLA)决定是否回答或拒绝。该工具支持基于证据和封闭式两种部署模式,并提供全面的指标和审计跟踪,为构建更可靠的LLM应用提供了有力支持。