ماذا بعد التزييف العميق “deepfakes”

| د. جاسم حاجي

“التزييف‭ ‬العميق”‭ ‬هو‭ ‬مقاطع‭ ‬فيديو‭ ‬مزيفة‭ ‬أو‭ ‬تسجيلات‭ ‬صوتية‭ ‬تبدو‭ ‬كأنها‭ ‬حقيقية،‭ ‬وكانت‭ ‬في‭ ‬السابق‭ ‬تستخدم‭ ‬في‭ ‬استوديوهات‭ ‬المؤثرات‭ ‬الخاصة‭ ‬لهوليوود‭ ‬ووكالات‭ ‬الاستخبارات‭ ‬التي‭ ‬تنتج‭ ‬البروباجندا‭ ‬مثل‭ ‬الـCIA‭ ‬،‭ ‬ويمكن‭ ‬لأي‭ ‬شخص‭ ‬اليوم‭ ‬أن‭ ‬يقوم‭ ‬بتنزيل‭ ‬برامج‭ ‬الـ‭ ‬deepfake‭ ‬وإنشاء‭ ‬مقاطع‭ ‬فيديو‭ ‬وهمية‭ ‬مقنعة‭ ‬في‭ ‬وقت‭ ‬فراغه‭.‬

وحتى‭ ‬الآن،‭ ‬اقتصرت‭ ‬مقاطع‭ ‬الـ‭ ‬deepfakes‭ ‬على‭ ‬الهواة‭ ‬الذين‭ ‬يشوهون‭ ‬صورة‭ ‬المشاهير‭ ‬ويجعلون‭ ‬السياسيين‭ ‬يقولون‭ ‬أشياء‭ ‬مضحكة،‭ ‬ومع‭ ‬ذلك،‭ ‬سيكون‭ ‬من‭ ‬السهل‭ ‬إنشاء‭ ‬مجموعة‭ ‬من‭ ‬الإنذارات‭ ‬للطوارئ‭ ‬تحذر‭ ‬من‭ ‬وقوع‭ ‬هجوم‭ ‬وشيك‭ ‬أو‭ ‬تعطيل‭ ‬انتخابات‭ ‬قريبة‭ ‬بمقطع‭ ‬فيديو‭ ‬مزيف‭ ‬أو‭ ‬تسجيل‭ ‬صوتي‭ ‬لأحد‭ ‬المرشحين‭ ‬قبل‭ ‬أيام‭ ‬من‭ ‬بدء‭ ‬التصويت،‭ ‬كما‭ ‬حدث‭ ‬مع‭ ‬مؤسس‭ ‬“Facebook”‭ ‬“مارك‭ ‬زكربرغ”‭ ‬حين‭ ‬تم‭ ‬تزييف‭ ‬خطابه‭.‬

البشر‭ ‬يبحثون‭ ‬عن‭ ‬معلومات‭ ‬تدعم‭ ‬ما‭ ‬يريدون‭ ‬تصديقه‭ ‬وتجاهل‭ ‬الباقي‭.. ‬اختراق‭ ‬هذه‭ ‬النزعة‭ ‬البشرية‭ ‬يمنح‭ ‬الجهات‭ ‬الفاعلة‭ ‬الخبيثة‭ ‬الكثير‭ ‬من‭ ‬القوة،‭ ‬حيث‭ ‬نرى‭ ‬هذا‭ ‬بالفعل‭ ‬بالمعلومات‭ ‬المضللة‭ (‬ما‭ ‬يسمى‭ ‬الأخبار‭ ‬المزيفة‭) ‬التي‭ ‬تخلق‭ ‬زيفا‭ ‬بشكل‭ ‬متعمد‭ ‬والتي‭ ‬تنتشر‭ ‬بعد‭ ‬ذلك‭ ‬تحت‭ ‬ستار‭ ‬الحقيقة،‭ ‬وبحلول‭ ‬الوقت‭ ‬الذي‭ ‬يبدأ‭ ‬فيه‭ ‬مدققوا‭ ‬الحقائق‭ ‬بالاحتجاج،‭ ‬يكون‭ ‬الأوان‭ ‬قد‭ ‬فات‭. ‬تستغل‭ ‬الـ‭ ‬Deepfakes‭ ‬هذا‭ ‬الاتجاه‭ ‬الإنساني‭ ‬باستخدام‭ ‬شبكات‭ ‬الخصومة‭ ‬التوليدية‭ (‬GANs‭) ‬،‭ ‬حيث‭ ‬يقوم‭ ‬نموذجان‭ ‬لتعلم‭ ‬الآلة‭ (‬ML‭) ‬بالعراك،‭ ‬ويقوم‭ ‬نموذج‭ ‬تعليمي‭ ‬آلي‭ ‬واحد‭ ‬بالتدريب‭ ‬على‭ ‬مجموعة‭ ‬بيانات‭ ‬ثم‭ ‬يقوم‭ ‬بإنشاء‭ ‬فيديوهات‭ ‬مزورة،‭ ‬بينما‭ ‬يحاول‭ ‬الآخر‭ ‬اكتشاف‭ ‬التزوير،‭ ‬النموذج‭ ‬المزور‭ ‬يقوم‭ ‬بخلق‭ ‬المقاطع‭ ‬المزيفة‭ ‬إلى‭ ‬أن‭ ‬لا‭ ‬يستطيع‭ ‬نموذج‭ ‬تعلم‭ ‬الآلة‭ ‬الآخر‭ ‬اكتشاف‭ ‬التزوير،‭ ‬وكلما‭ ‬كبرت‭ ‬مجموعة‭ ‬بيانات‭ ‬التدريب،‭ ‬كلما‭ ‬أصبح‭ ‬من‭ ‬السهل‭ ‬على‭ ‬المزور‭ ‬إنشاء‭ ‬Deepfakes‭ ‬يمكن‭ ‬تصديقها‭. ‬هذا‭ ‬هو‭ ‬السبب‭ ‬في‭ ‬استخدام‭ ‬مقاطع‭ ‬الفيديو‭ ‬الخاصة‭ ‬بالرؤساء‭ ‬السابقين‭ ‬ومشاهير‭ ‬هوليوود‭ ‬بشكل‭ ‬متكرر‭ ‬في‭ ‬هذا‭ ‬الجيل‭ ‬الأول‭ ‬المبكر‭ ‬من‭ ‬ملفات‭ ‬الفيديو‭. ‬لقد‭ ‬اتضح‭ ‬أن‭ ‬مقاطع‭ ‬الفيديو‭ ‬منخفضة‭ ‬التكنولوجيا‭ ‬يمكن‭ ‬أن‭ ‬تكون‭ ‬بنفس‭ ‬فعالية‭ ‬الـ‭ ‬Deepfakes‭  ‬كمعلومات‭ ‬مضللة،‭ ‬كما‭ ‬يوضح‭ ‬الجدل‭ ‬الدائر‭ ‬حول‭ ‬الفيديو‭ ‬الذي‭ ‬تمت‭ ‬معالجته‭ ‬عن‭ ‬مواجهة‭ ‬الرئيس‭ ‬ترامب‭ ‬مع‭ ‬مراسل‭ ‬الـ‭ ‬CNN‭ ‬جيم‭ ‬أكوستا‭ ‬في‭ ‬مؤتمر‭ ‬صحافي‭ ‬في‭ ‬نوفمبر،‭ ‬يظهر‭ ‬الفيديو‭ ‬بوضوح‭ ‬امرأة‭ ‬متدربة‭ ‬في‭ ‬البيت‭ ‬الأبيض‭ ‬تحاول‭ ‬أخذ‭ ‬الميكروفون‭ ‬من‭ ‬أكوستا،‭ ‬لكن‭ ‬التعديل‭ ‬اللاحق‭ ‬جعله‭ ‬يبدو‭ ‬وكأن‭ ‬مراسل‭ ‬الـ‭ ‬CNN‭ ‬هاجم‭ ‬المتدربة‭.‬

يؤكد‭ ‬هذا‭ ‬الحادث‭ ‬المخاوف‭ ‬من‭ ‬إمكانية‭ ‬التلاعب‭ ‬بالفيديو‭ ‬بسهولة‭ ‬لتشويه‭ ‬هدف‭ ‬ما‭ ‬من‭ ‬اختيار‭ ‬المهاجم‭ - ‬مراسل،‭ ‬سياسي،‭ ‬رجل‭ ‬أعمال،‭ ‬علامة‭ ‬تجارية،‭ ‬على‭ ‬عكس‭ ‬ما‭ ‬يسمى‭ ‬بـ‭ ‬“deepfakes”‭ ‬،‭ ‬حيث‭ ‬يضع‭ ‬التعلم‭ ‬الآلي‭ ‬الكلمات‭ ‬في‭ ‬أفواه‭ ‬الناس،‭ ‬فإن‭ ‬مقاطع‭ ‬الفيديو‭ ‬ذات‭ ‬التقنية‭ ‬المنخفضة‭ ‬قريبة‭ ‬جدًا‭ ‬من‭ ‬الواقع‭ ‬إلى‭ ‬درجة‭ ‬أنها‭ ‬تمزج‭ ‬الخط‭ ‬الفاصل‭ ‬بين‭ ‬الصواب‭ ‬والخطأ‭.‬