AI 음성 복제 사기가 증거 규칙의 결함을 드러내다
2025-03-11
AI 음성 복제를 이용한 사기 사건이 급속도로 발전하는 음성 합성 기술이 야기하는 문제점을 보여줍니다. 한 아버지가 자신의 아들의 목소리를 정교하게 모방한 사기꾼에 의해 사기 피해를 입을 뻔했습니다. 이 사건은 현재의 연방 증거 규칙의 허점을 드러냅니다. 이 규칙은 음성 녹음의 인증을 증인의 목소리 식별에만 의존하고 있지만, 정교한 AI 음성 복제 기술이 등장한 현재로서는 이 방법이 신뢰할 수 없습니다. 연구에 따르면 사람들은 진짜 목소리와 AI가 생성한 복제품을 구분하는 데 어려움을 겪고 있으며, 이는 현재 기술의 정교함을 보여줍니다. 이 글에서는 잠재적으로 위조된 음성 증거의 채택 여부에 대해 판사에게 더 많은 재량권을 부여하도록 증거 규칙을 개정할 것을 주장하며, AI 기술의 발전에 대응해야 한다고 강조합니다.