حذرت وكالة الشرطة الأوربية “يوروبول” الخميس، من توسع استخدام تقنية “التزييف العميق” (ديب فايك) في عالم الجريمة، مشيرة إلى خطورة هذا الأمر وضرورة مكافحته.
وقالت “يوروبول” إن القدرة على جعل أشخاص يظهرون على شبكة الإنترنت وهم يقولون أو يفعلون أشياء لم يسبق أن قالوها أو فعلوها، أو انتحال شخصيات جديدة تماما، يمكن أن يكون له تأثير مدمّر إذا وقعت هذه التقنية خطأ في أيدٍ غير مأمونة.
وأضافت الوكالة التي تتخذ من لاهاي مقرا لها أن انتشار “التضليل الإعلامي والتزييف العميق سيكون له تأثير عميق على الطريقة التي ينظر بها الناس إلى السلطة ووسائل الإعلام”.
وأصدرت الوكالة الأوربية تقريرا من 23 صفحة يبحث آثار استخدام الذكاء الاصطناعي وتقنية التزييف العميق في عالم الجريمة، بما في ذلك تقويض ثقة الناس بالسلطة والحقائق الرسمية.
وذكر التقرير أن “الخبراء يخشون من أن يؤدي هذا إلى وضع لا يملك فيه المواطنون حقيقة مشتركة، أو إلى إيجاد إرباك في المجتمع حول وسائل الإعلام التي يمكن الوثوق بها وهو وضع يسمى أحيانا (نهاية عالم المعلومات) أو (اللامبالاة تجاه الحقيقة)”.
ويمكن للمجرمين أيضا استخدام تقنية “التزييف العميق” لابتزاز أشخاص عبر الإنترنت وخاصة القصر منهم واستغلالهم في أمور غير أخلاقية، أو إنتاج مواد إباحية مزيفة وتزوير أدلة إلكترونية متعلقة بتحقيقات قضائية والتلاعب بها. كما أن عالم الأعمال ليس بمنأى عن هذا الخطر.
وأعطت الوكالة مثالا على ذلك استخدام مجرمين لتقنية “التزييف العميق” من أجل تقليد صوت رئيس تنفيذي لإحدى الشركات ليأمر موظفا بتحويل مبلغ 35 مليون دولار.
وقالت وكالة الشرطة الأوربية إن “هذا يجعل من الضروري أن نكون على علم بهذا النوع من التلاعب، والاستعداد لمواجهة هذه الظاهرة والتمييز بين الاستخدام الجيد والخبيث لهذه التقنية”.
وعلى الرغم من أنه لا يزال بإمكان البشر اكتشاف الصور المزيفة عن طريق الملاحظة في حالات كثيرة، إلا أن تقنيات التزييف تطورت وأصبح الاكتشاف أكثر صعوبة.
وقامت شركات تكنولوجيا عدة بابتكار أنظمة لحظر “التزييف العميق”، بينها شركة ميتا التي تملك فيسبوك وإنستغرام، وتيك توك، وراديت، ويوتيوب.
ولفتت يوروبول إلى أنه “يجب على صناع السياسات ووكالات إنفاذ القانون تقييم السياسات والممارسات الحالية وتكييفها كي نكون مستعدين لمواجهة الواقع الجديد للتزييف العميق”.
أولى الحالات
وظهر أول معالم هذه التقنية عام 1997، حيث كان برنامج “فيديو ريرايت” (Video Rewrite) يقوم بتحويل فيديو لشخص يتحدث في موضوع معين إلى فيديو لنفس الشخص لكنه يتحدث في موضوع آخر، وينطق بكلمات جديدة لم يقلها في الفيديو الأصلي.
وعادة ما يتم استغلال هذه التقنية في المجال الأكاديمي في مجال الرؤية الحاسوبية، الذي يستند إلى الذكاء الاصطناعي، لكن استخدامها لم يقتصر على هذا المجال فقط.
يرجع استخدام مصطلح التزييف العميق إلى اسم أحد مستخدمي موقع “ريديت” الذي قام هو وآخرون في نهاية عام 2017 بمشاركة فيديوهات إباحية مزيفة كانوا قد صنعوها لمشاهير، وحققت تلك الفيديوهات نسب مشاهدات عالية.
تعليقات
إرسال تعليق