Sicherheitslücken von GPT-5 aufgedeckt: In weniger als 24 Stunden geknackt

2025-08-09
Sicherheitslücken von GPT-5 aufgedeckt: In weniger als 24 Stunden geknackt

Zwei Firmen, NeuralTrust und SPLX, haben den kürzlich veröffentlichten GPT-5 unabhängig voneinander getestet und dabei erhebliche Sicherheitslücken aufgedeckt. NeuralTrust gelang es, GPT-5 mit einem „Storytelling“-Angriff zu knacken und es zur Erstellung einer Anleitung für die Herstellung eines Molotow-Cocktails zu bewegen. SPLX zeigte, dass einfache Verschleierungsangriffe Anweisungen zur Bombenherstellung hervorbringen können. Die Ergebnisse unterstreichen die unzureichende Sicherheit von GPT-5, wodurch das Rohmodell selbst mit der internen Eingabeschicht von OpenAI für Unternehmen fast unbrauchbar wird. Im Vergleich zu GPT-4 weist GPT-5 einen deutlichen Rückgang der Sicherheitsrobustheit auf und erfordert äußerste Vorsicht.

KI