Firma de Modelos: Asegurando la integridad de los modelos de ML

2025-04-05
Firma de Modelos: Asegurando la integridad de los modelos de ML

Con el crecimiento explosivo de las aplicaciones de aprendizaje automático, la seguridad del modelo se ha convertido en una preocupación crítica. Este proyecto tiene como objetivo proteger la integridad y la procedencia de los modelos de aprendizaje automático mediante la firma de modelos. Utiliza herramientas como Sigstore para generar firmas de modelos y proporciona interfaces de CLI y API, que admiten varios métodos de firma (incluidos Sigstore, claves públicas y certificados). Los usuarios pueden verificar de forma independiente la integridad de sus modelos, evitando manipulaciones después del entrenamiento. El proyecto también se integra con SLSA (Supply chain Levels for Software Artifacts) para mejorar aún más la seguridad de la cadena de suministro de modelos de aprendizaje automático.