LLMs privados de xAI expuestos: Falla de seguridad de dos meses
2025-05-02
Un empleado de xAI filtró una clave privada en GitHub, otorgando acceso durante dos meses a modelos de lenguaje grandes (LLMs) privados de xAI, aparentemente diseñados para datos internos de SpaceX, Tesla y X (Twitter). La empresa de seguridad GitGuardian descubrió que la clave permitía acceder a al menos 60 LLMs privados y ajustados, algunos entrenados con datos de SpaceX y Tesla. A pesar de que GitGuardian alertó al empleado hace dos meses, xAI recién eliminó el repositorio que contenía la clave. Esto destaca las vulnerabilidades de seguridad de xAI en la gestión de claves y el monitoreo interno, generando preocupaciones sobre la seguridad de los datos.
Tecnología
falla de seguridad de IA