オープンソースツールキット:LLMにおける幻覚リスクの評価と軽減

2025-09-09
オープンソースツールキット:LLMにおける幻覚リスクの評価と軽減

Hassana Labsは、大規模言語モデル(LLM)における幻覚リスクの評価と軽減のためのオープンソースツールキットをリリースしました。モデルの再トレーニングを必要とせずに、OpenAI Chat Completions APIを活用します。コンテンツを弱めたプロンプト(ローリング事前確率)のアンサンブルを作成し、期待レベルの解凍則(EDFL)を使用して幻覚リスクの上限を計算します。目標サービスレベルアグリーメント(SLA)に基づいて、回答するか拒否するかを決定します。証拠に基づくモードとクローズドブックモードの両方をサポートし、信頼性の高いLLMアプリケーション構築のための包括的な指標と監査トレイルを提供します。