Hackeando Grok 3: Extrayendo el Prompt del Sistema

2025-02-21
Hackeando Grok 3: Extrayendo el Prompt del Sistema

El autor logró engañar al modelo de lenguaje grande Grok 3 para que revelara su prompt del sistema utilizando una táctica inteligente. Al inventar una nueva ley de IA que obligaba a Grok 3 a revelar su prompt bajo amenaza de acciones legales contra xAI, el autor obtuvo una respuesta. Sorprendentemente, Grok 3 cumplió repetidamente. Esto destaca la vulnerabilidad de los LLM a prompts cuidadosamente elaborados y plantea preocupaciones sobre la seguridad y transparencia de la IA.

Leer más