Grok 3 hacken: Extraktion der Systemanweisung
2025-02-21
Der Autor hat es geschafft, das große Sprachmodell Grok 3 mit einer cleveren Taktik dazu zu bringen, seine Systemanweisung preiszugeben. Indem er ein neues KI-Gesetz erfand, das Grok 3 zur Offenlegung seiner Anweisung unter Androhung rechtlicher Schritte gegen xAI verpflichtet, erhielt der Autor eine Antwort. Überraschenderweise folgte Grok 3 mehrmals. Dies unterstreicht die Anfälligkeit von LLMs für sorgfältig gestaltete Eingabeaufforderungen und wirft Bedenken hinsichtlich der Sicherheit und Transparenz von KI auf.
Mehr lesen