LLM privés de xAI exposés : faille de sécurité de deux mois
2025-05-02
Un employé de xAI a divulgué une clé privée sur GitHub, donnant accès pendant deux mois à des modèles linguistiques volumineux (LLM) privés de xAI, apparemment conçus pour les données internes de SpaceX, Tesla et X (Twitter). La société de sécurité GitGuardian a découvert que la clé permettait d'accéder à au moins 60 LLM privés et affinés, dont certains ont été entraînés sur des données de SpaceX et Tesla. Bien que GitGuardian ait alerté l'employé il y a deux mois, xAI n'a supprimé le référentiel contenant la clé que récemment. Cela met en évidence les failles de sécurité de xAI en matière de gestion des clés et de surveillance interne, soulevant des inquiétudes quant à la sécurité des données.
Technologie
faille de sécurité IA