خداع استنساخ الصوت بالذكاء الاصطناعي يكشف عن ثغرات في قواعد الأدلة
تكشف عملية احتيال باستخدام تقنية استنساخ الصوت بالذكاء الاصطناعي عن التحديات التي تطرحها التطورات السريعة في تقنية توليد الصوت. كاد أب أن يصبح ضحية لمحتال قام بتقليد صوت ابنه بشكل مقنع. هذه الحالة تكشف عن نقاط ضعف في قواعد الأدلة الفيدرالية الحالية، والتي تسمح بالتحقق من صحة تسجيلات الصوت بناءً على تحديد الهوية من قبل شاهد فقط - وهي عملية أصبحت غير موثوقة الآن بسبب تقنية استنساخ الصوت المتطورة القائمة على الذكاء الاصطناعي. تُظهر الدراسات أن الناس يجدون صعوبة في التمييز بين الأصوات الحقيقية والنسخ المستنسخة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يدل على مستوى عالٍ من الواقعية للتكنولوجيا الحالية. تدعو المقالة إلى تعديل قواعد الأدلة لمنح القضاة مزيدًا من السلطة التقديرية في قبول أو رفض أدلة صوتية مزورة محتملة، والتكيف مع المشهد المتغير للذكاء الاصطناعي.