AppleのAI安全モデルの解読:コンテンツフィルタリングメカニズムの解明
2025-07-07
このプロジェクトは、AppleのAI安全モデルのフィルタファイルの解読を行い、さまざまなモデルに対するルールを明らかにします。LLDBデバッグとカスタムスクリプトを使用することで、暗号化キーを取得し、これらのファイルを復号化できます。復号化されたJSONファイルには、有害なコンテンツのフィルタリングや安全基準への準拠を目的としたルールが含まれています。これには、正確なキーワードの一致、削除するフレーズ、正規表現によるフィルタリングなどが含まれます。このプロジェクトは、復号化されたルールファイルと復号化スクリプトを提供し、研究者がAppleのAIモデルの安全メカニズムを分析することを可能にします。
AI
モデルフィルタリング