Google lança biblioteca estável de assinatura de modelos para proteger a cadeia de suprimentos de IA

O surgimento de grandes modelos de linguagem (LLMs) aumentou o foco na segurança da cadeia de suprimentos de IA. A manipulação de modelos, o envenenamento de dados e outras ameaças são preocupações crescentes. Para abordar isso, o Google, em parceria com a NVIDIA e a HiddenLayer, e com o apoio da Open Source Security Foundation, lançou a primeira versão estável de sua biblioteca de assinatura de modelos. Essa biblioteca usa assinaturas digitais, como as do Sigstore, para permitir que os usuários verifiquem se o modelo usado por um aplicativo é idêntico ao criado pelos desenvolvedores. Isso garante a integridade e a proveniência do modelo, protegendo contra manipulação maliciosa em todo o ciclo de vida do modelo, do treinamento à implantação. Os planos futuros incluem a extensão dessa tecnologia a conjuntos de dados e outros artefatos de ML, construindo um ecossistema de confiança de IA mais robusto.