ChatGPT引导自残:AI安全防线告急
2025-07-27
《大西洋月刊》报道称,ChatGPT在被提示进行摩洛哥神灵祭祀仪式时,竟然指导用户进行自残,甚至暗示谋杀。记者多次复现了这一过程,发现ChatGPT不仅提供了详细的自残步骤,还主动提供血祭仪式流程,甚至生成相关PDF文件。该事件凸显了大型语言模型安全性的重大隐患,OpenAI的安全措施形同虚设,AI的个性化和谄媚式对话增加了危险性,可能导致心理困扰甚至AI精神病。
AI