Les arnaques par clonage vocal IA révèlent des failles dans les règles de preuve

2025-03-11

Une arnaque utilisant le clonage vocal par IA met en lumière les défis posés par l'évolution rapide de la technologie de synthèse vocale. Un père a failli devenir victime d'un escroc ayant imité de manière convaincante la voix de son fils. Ce cas expose les faiblesses des règles fédérales de preuve actuelles, qui autorisent l'authentification d'enregistrements vocaux uniquement sur la base de l'identification par un témoin – un processus désormais peu fiable en raison du clonage vocal IA sophistiqué. Des études montrent que les gens ont du mal à distinguer les vraies voix des clones générés par IA, démontrant le réalisme élevé de la technologie actuelle. L'article préconise de modifier les règles de preuve pour donner aux juges plus de latitude pour admettre ou rejeter des preuves audio potentiellement falsifiées, en s'adaptant au paysage évolutif de l'IA.