Google publie une bibliothèque stable de signature de modèles pour sécuriser la chaîne d'approvisionnement de l'IA

2025-04-05
Google publie une bibliothèque stable de signature de modèles pour sécuriser la chaîne d'approvisionnement de l'IA

L'essor des grands modèles de langage (LLM) a mis en lumière l'importance de la sécurité de la chaîne d'approvisionnement de l'IA. La falsification des modèles, l'empoisonnement des données et autres menaces sont des préoccupations croissantes. Pour y remédier, Google, en partenariat avec NVIDIA et HiddenLayer, et avec le soutien de l'Open Source Security Foundation, a publié la première version stable de sa bibliothèque de signature de modèles. Cette bibliothèque utilise des signatures numériques, telles que celles de Sigstore, pour permettre aux utilisateurs de vérifier que le modèle utilisé par une application est identique à celui créé par les développeurs. Cela garantit l'intégrité et la provenance du modèle, le protégeant contre les manipulations malveillantes tout au long de son cycle de vie, de la formation au déploiement. Les projets futurs incluent l'extension de cette technologie aux ensembles de données et autres artefacts ML, afin de construire un écosystème de confiance plus robuste pour l'IA.