Signature de modèle : sécurisation de l’intégrité des modèles ML
Avec la croissance fulgurante des applications d’apprentissage automatique, la sécurité des modèles est devenue une préoccupation essentielle. Ce projet vise à sécuriser l’intégrité et la provenance des modèles d’apprentissage automatique grâce à la signature des modèles. Il utilise des outils comme Sigstore pour générer des signatures de modèles et fournit des interfaces CLI et API, prenant en charge différentes méthodes de signature (Sigstore, clés publiques et certificats). Les utilisateurs peuvent vérifier indépendamment l’intégrité de leurs modèles, empêchant ainsi toute falsification après l’entraînement. Le projet s’intègre également à SLSA (Supply chain Levels for Software Artifacts) pour renforcer encore la sécurité de la chaîne d’approvisionnement des modèles d’apprentissage automatique.