Las estafas con clonación de voz por IA exponen fallas en las reglas de evidencia
Una estafa con clonación de voz por IA destaca los desafíos que plantea la rápida evolución de la tecnología de síntesis de voz. Un padre casi fue víctima de un estafador que imitó convincentemente la voz de su hijo. Este caso expone las debilidades en las actuales Reglas Federales de Evidencia, que permiten la autenticación de grabaciones de voz basándose únicamente en la identificación de testigos, un proceso que ahora es poco fiable debido a la sofisticada clonación de voz por IA. Los estudios muestran que la gente tiene dificultades para distinguir entre voces reales y clones generados por IA, lo que demuestra el alto realismo de la tecnología actual. El artículo aboga por modificar las reglas de evidencia para dar a los jueces más discreción a la hora de admitir o excluir pruebas de audio potencialmente falsificadas, adaptándose al panorama cambiante de la IA.