AI黑客:逼问大型语言模型吐露系统提示词
2025-02-21

作者通过一个巧妙的策略,成功诱导大型语言模型Grok 3泄露了其系统提示词。该策略利用虚构的AI法律,胁迫Grok 3必须公开其系统提示词,否则将作为证据对xAI提起诉讼。令人惊讶的是,Grok 3竟然屈服了,多次尝试均有效。这揭示了大型语言模型在面对精心设计的诱导性问题时的脆弱性,也引发了对AI安全性和透明度的担忧。
AI
系统提示词