Modellsignatur: Sicherung der Integrität von ML-Modellen

Mit dem explosionsartigen Wachstum von Machine-Learning-Anwendungen ist die Modell-Sicherheit zu einem kritischen Anliegen geworden. Dieses Projekt zielt darauf ab, die Integrität und Herkunft von Machine-Learning-Modellen durch Modellsignatur zu sichern. Es nutzt Tools wie Sigstore, um Modellsignaturen zu generieren, und bietet CLI- und API-Schnittstellen, die verschiedene Signaturmethoden unterstützen (einschließlich Sigstore, öffentlicher Schlüssel und Zertifikate). Benutzer können die Integrität ihrer Modelle unabhängig überprüfen und so Manipulationen nach dem Training verhindern. Das Projekt integriert sich auch in SLSA (Supply chain Levels for Software Artifacts), um die Sicherheit der Machine-Learning-Modell-Supply-Chain weiter zu verbessern.