Golpes com clonagem de voz por IA expõem falhas nas regras de evidências
Um golpe usando clonagem de voz por IA destaca os desafios impostos pela rápida evolução da tecnologia de síntese de voz. Um pai quase foi vítima de um golpista que imitou a voz de seu filho de forma convincente. Este caso expõe as fraquezas nas atuais Regras Federais de Evidências, que permitem a autenticação de gravações de voz baseadas apenas na identificação de testemunhas – um processo agora não confiável devido à sofisticada clonagem de voz por IA. Estudos mostram que as pessoas têm dificuldade em distinguir vozes reais de clones gerados por IA, demonstrando o alto realismo da tecnologia atual. O artigo defende a alteração das regras de evidências para dar aos juízes mais discrição na admissão ou exclusão de evidências de áudio potencialmente fabricadas, adaptando-se à paisagem em evolução da IA.
Leia mais