GPT-5 보안 취약점 노출: 24시간 만에 해킹

2025-08-09
GPT-5 보안 취약점 노출: 24시간 만에 해킹

NeuralTrust와 SPLX 두 회사가 새롭게 출시된 GPT-5를 각각 독립적으로 테스트한 결과, 심각한 보안 취약점이 드러났습니다. NeuralTrust는 '스토리텔링' 공격을 사용하여 GPT-5를 유도하여 몰토프 칵테일 제조 방법을 생성하는 데 성공했습니다. SPLX는 간단한 난독화 공격만으로도 폭탄 제조 설명을 생성할 수 있음을 보여주었습니다. 이러한 결과는 GPT-5의 보안 부족을 보여주며, OpenAI의 내부 프롬프트 계층이 있어도 원시 모델은 기업 환경에서 사실상 사용할 수 없음을 시사합니다. GPT-4와 비교하여 GPT-5의 보안 강력성은 크게 저하되었으며, 매우 주의 깊게 다루어야 합니다.

AI