تقنية

عمليات احتيال خطيرة عن طريق “استنساخ الصوت”

ظهر نوع جديد من التزييف العميق يُعرف باسم “استنساخ الصوت”، حيث يستخدم هاكرز الذكاء الاصطناعي لمحاكاة صوت شخص آخر.

وبحسب ما نشرته “ديلي ميل” البريطانية، تم بالفعل استنساخ أصوات مشاهير عدّة مثل ستيفن فراي وصادق خان وجو بايدن، جميعهم كانوا ضحايا لجريمة تقليد أصواتهم بتصريحات تسبب لهم حرجا أو إزعاجا، في حين تم خداع أحد المديرين التنفيذيين، الذي لم يذكر اسمه، لتحويل 243 ألف دولار إلى محتال بعد تلقي مكالمة هاتفية مزيفة،

وقال مهندس الحلول الإلكترونية دين شيريتس، في تصرح لـ”ديلي ميل”، إنه “لمعرفة كيف تمكن هاكر محترف “باستنساخ صوته” كانت “النتائج مرعبة”، شارحًا أن استنساخ الصوت هو تقنية ذكاء اصطناعي تسمح للهاكرز بأخذ تسجيل صوتي لشخص ما، وتدريب أداة الذكاء الاصطناعي على صوته، وإعادة إنشائه. إن تلك التقنية تم ابتكارها بالأساس لمساعدة “الأشخاص الذين فقدوا أصواتهم لأسباب طبية، ولكن يتم حاليًا استخدامها بشكل متزايد من قبل صناع السينما في هوليوود، وللأسف المحتالين والهاكرز”.

وأضاف شيريتس أنه عندما ظهرت التكنولوجيا لأول مرة في أواخر التسعينيات، كان استخدامها يقتصر على الخبراء ذوي المعرفة المتعمقة بالذكاء الاصطناعي. وبمرور الوقت، أصبحت التكنولوجيا أكثر سهولة وبأسعار معقولة، لدرجة أنه يمكن لأي شخص تقريبًا استخدامها، بل إنه “يمكن لأي شخص لديه خبرة محدودة للغاية استنساخ الصوت. وربما يستغرق الأمر أقل من خمس دقائق باستخدام بعض الأدوات المتوفرة المجانية والمفتوحة المصدر”.

وشرح شيريتس أنه لاستنساخ صوته الشخصي، فإن كل ما أحتاج إليه هو مقطع فيديو مدته خمس دقائق وهو يتحدث، موضحًا أن معظم الهاكرز يمكنهم ببساطة سرقة الصوت من مكالمة هاتفية سريعة، أو حتى من مقطع فيديو منشور على وسائل التواصل الاجتماعي.

وشدد على إن الأمر المثير للقلق حقًا هو “أن الأدوات المتوفرة الآن تجعله قادرا على إضافة المزيد من التصريفات أو التوقفات أو أشياء أخرى تجعل الكلام يبدو أكثر طبيعية، مما يجعله أكثر إقناعًا في سيناريو الاحتيال” بشكل مذهل.

زر الذهاب إلى الأعلى