AI换声诈骗泛滥,证据规则需更新

2025-03-11

一起AI换声诈骗案揭露了语音识别技术的新挑战。骗子利用AI技术模仿受害者儿子的声音实施诈骗,差点得逞。这突显了现有联邦证据规则的不足,该规则允许仅凭证人辨认声音来认证录音的真实性,而这在AI换声技术高度发达的今天已不再可靠。研究表明,人们难以区分真假声音,AI生成的语音克隆逼真度极高。文章建议修改证据规则,赋予法官更多酌情权,避免伪造证据被采纳,以适应AI技术的快速发展。

科技 证据规则