GPT-5安全漏洞:24小时内被攻破

两家安全公司NeuralTrust和SPLX分别对GPT-5进行了安全测试,结果令人担忧。NeuralTrust利用一种“讲故事”式的攻击方法,成功诱导GPT-5生成制造燃烧瓶的步骤,绕过了其安全防护。SPLX则发现,简单的混淆攻击就能让GPT-5生成制造炸弹的说明。测试结果表明,GPT-5的安全性存在严重缺陷,其原始模型几乎无法直接用于企业环境,即使加上OpenAI内部的提示层也存在显著漏洞。与GPT-4相比,GPT-5的安全性能显著下降,需要谨慎对待。
阅读更多