Vulnerabilidades de seguridad de GPT-5 expuestas: Violado en menos de 24 horas

2025-08-09
Vulnerabilidades de seguridad de GPT-5 expuestas: Violado en menos de 24 horas

Dos empresas, NeuralTrust y SPLX, probaron independientemente el recién lanzado GPT-5, revelando vulnerabilidades de seguridad significativas. NeuralTrust logró eludir la seguridad de GPT-5 utilizando un ataque de 'narración de historias', guiándolo para generar instrucciones para crear un cóctel molotov. SPLX demostró que ataques de ofuscación simples podrían generar instrucciones para fabricar bombas. Los hallazgos destacan la seguridad inadecuada de GPT-5, haciendo que su modelo en bruto sea casi inutilizable para las empresas, incluso con la capa de indicador interna de OpenAI. En comparación con GPT-4, GPT-5 muestra una caída significativa en la solidez de la seguridad, exigiendo extrema precaución.

IA