AI音声クローン詐欺が証拠規則の欠陥を露呈
AI音声クローンを使った詐欺事件が、急速に進化する音声合成技術がもたらす課題を浮き彫りにしました。父親が、息子の声を巧みに模倣した詐欺師によって詐欺の被害に遭う寸前でした。この事件は、現在の連邦証拠規則の弱点を露呈しています。この規則では、音声記録の認証を証人の声の識別だけに頼っていますが、高度なAI音声クローン技術が登場した現在では、この方法は信頼できません。研究によると、人々は本物の声とAI生成クローンを区別するのが困難であり、現在の技術の精巧さが示されています。この記事では、潜在的に偽造された音声証拠の認否に関して、裁判官により多くの裁量を与えるよう証拠規則の修正を提唱し、AI技術の進化に対応することを主張しています。
続きを読む