加州一项名为《前沿人工智能模型安全和可靠创新法案》(SB-1047)的法案引发了关于大型人工智能模型整体“安全”的激烈争论。该法案由州参议员Scott Wiener提出,要求大型AI模型背后的公司实施测试程序和系统,以防止和应对“安全事件”,特别关注AI可能引发的“重大危害”,例如造成“大规模伤亡或至少5亿美元的损失”。批评者担心,该法案过度关注未来AI模型可能带来的潜在威胁,可能会严重限制当今更实际、无威胁的AI用途的研究和发展。