Failles de sécurité de GPT-5 exposées : piraté en moins de 24 heures
2025-08-09
Deux entreprises, NeuralTrust et SPLX, ont testé indépendamment le GPT-5 nouvellement lancé, révélant des failles de sécurité importantes. NeuralTrust a réussi à contourner la sécurité de GPT-5 en utilisant une attaque de « récit », le guidant pour générer des instructions de fabrication d'un cocktail Molotov. SPLX a démontré que des attaques d'obfuscation simples pouvaient générer des instructions de fabrication de bombes. Les résultats mettent en évidence l'insuffisance de la sécurité de GPT-5, rendant son modèle brut presque inutilisable pour les entreprises, même avec la couche d'invite interne d'OpenAI. Comparé à GPT-4, GPT-5 montre une baisse significative de la robustesse de la sécurité, exigeant une extrême prudence.
IA