موقع يوتيوب منصة من أشهر المنصات الاجتماعية المختصة بالمرئيّات، إذْ تُرفع فيها يوميا آلاف المرئيّات المتنوعة في مختلف المجالات، كمجالات الكوميديا، والتعليم، والأخبار السياسية، وغير ذلك من المرئيات التي منها النافع والضار.
وتظل مشاهدة المرئيّات إحدى الطرق المؤثرة في العصر الحديث، خصوصا بعد استخدامها الكبير في مجال التسويق الرقمي الـ(Digital Marketing)، ولها تأثير كبير في الرأي العام وفي العالم، فكما أنها وسيلة لنقل الأخبار، والتعلم، والترفيه، فإنها أيضا قد تستخدم بطريقة خاطئة، وينتج عنها مشكلاتٌ كبيرة.
ومع تطور التكنولوجيا ظهرت المرئيّات الزائفة والمعدلة، وقد ظهرت هذه النوعية من المرئيّات تحديدا لإضفاء نوع من الكوميديا، وإضافة التأثيرات في الأفلام وغيرها، وقد سببت تلك التقنية العديد من المشكلات، ولكن كان -إلى حد ما- من السهل كشف ذلك النوع من التزييف، ثم مع التطور التكنولوجي السريع تطورتْ التقنيات سريعا، وبصورة مخيفة جدا؛ إذْ ظهرت -مؤخرا- تقنية جديدة تُعرف باسم (التعليم الزائف، أو الزيف العميق) والذي يعرف باسم Deepfake. فما تلك التقنية؟ وما مدى خطورتها؟
أولا: ما الزيف العميق (Deepfake)؟
هي تقنية قائمة على الذكاء الاصطناعي تستخدم لإنتاج أو تغيير محتوى المرئيّ (الفيديو)، إذْ تُقدم شيئا لم يحدث في الحقيقة، وهي تقنية اخترعها طالب الدكتوراه إيان جودفيلو (Ean Goodfellow) في عام 2014، الطالب الذي يعمل الآن في شركة (أبل).
وتعتمد معظم تقنية (Deepfake) على شبكات الخصومة التوليدية ال (GANs)، إذْ تُمكّن شبكات ال GAN الخوارزميات من تجاوز تصنيف البيانات إلى إنشاء أو توليد صور، ويحدث هذا عندما تحاول شبكتان من ال GAN أن تتخادعا؛ لتعتقد أنت أن الصورة حقيقية.
ثانيا: كيف تعمل تقنية ال Deepfake؟
في ديسمبر (2017)، استُخدِمتْ تقنية الـDeepfake لتركيب وجوه المشاهير على الأشخاص في مقاطع المرئيّات الإباحية.
وكلٌ من التقنيات ومقاطع المرئيّات التي أُنشِئتْ باستخدام هذه التقنية هي جزء من التعليم العميق، أو الزيف العميق Deepfake.
والمرئيّات التي أُنتجتْ بخاصية Deepfake، باستخدام نظامين متنافسين من الذكاء الاصطناعي، أحدهما يُسمى المولد (generator)، والآخر يُسمى المميِّز (discriminator)، ففي الأساس ينشئ المولد مقطعا مرئيّا مزيفًا، ثم يُطلب من المميِّز تحديد ما إذا كان المقطع حقيقيا أم مزيّفا، وفي كل مرة يحدد فيها المميِّز أنّ المقطع المرئي مزيَّف، فإنه يعطي المولد فكرة حول ما لا يجب فعله عند إنشاء المقطع التالي.
المولِّد والمميِّز يشكلان معا شيئا يُسمى شبكة الخصومة التوليدية GAN (generative adversarial network)، وتتمثل الخطوة الأولى في إنشاء GAN لتحديد المخرجات المطلوبة، وإنشاء مجموعة بيانات تدريبية للمولد، وما إن يبدأ المولد في إنشاء مستوى مقبول من الإخراج، يمكن بعد ذلك تزويد المميز بباقي المرئيّات بسهولة.
وعندما يتحسن المولد في إنشاء مقاطع مرئيّات مزيفة، يتحسن المميّز في اكتشافها، وعلى عكس ذلك، حينما يتحسن المميّز في اكتشاف مقاطع المرئيّات المزيفة، فإن المولد يتحسن في إنشائها.
ثالثا: لماذا Deepfake خطرة؟
يوجد أكثر من 30 دولة منخرطة بنشاط في الحرب الإلكترونية دائما، فقد يكون أكبر مصدر قلق لهذه الدول أشياء مثل: موقع Deepnudes السيِّئ، إذْ يمكن تركيب الوجوه المشهورة، ووجوه النساء العاديات على المواد الإباحية لمحتوى المرئيّات.
في النهاية، ألغى مؤسس Deepnudes إطلاق الموقع، خوفًا من “احتمال أن يسيء المستخدمون استخدامه إساءة كبيرة”.
حسنًا، ماذا سيفعل الأشخاص بمحتوى إباحي مزيف؟
يقول أندريا هيكرسون، مدير كلية الصحافة والاتصالات الجماهيرية بجامعة ساوث كارولينا: “توجد مخاوف كثيرة بشأن تلك التقنية في ما يتعلق بالناحية السياسية، ماذا سيحدث إذا كان مقطع المرئيّات المصور، يصور زعيمًا سياسيًا يحرض على العنف أو الذعر؟ هل ستضطر دول أخرى إلى التحرك إذا كان التهديد فوريًا؟”.
يجب علينا أن ندرس بجدية بعض الأحداث (السيناريوهات) المحتملة المخيفة، فمع اقتراب انتخابات عام 2020، والتهديد المستمر للهجمات السيبرانية والحروب الإلكترونية:
إذْ قد تُستخدم تلك التقنية في دورة انتخابات عام 2020 لزيادة نبذ، وعزل، وتقسيم الناخبين الأمريكيين، إذْ ستُستخدم Deepfake كسلاح أو وسيلة لتغيير سلوك التصويت والتأثير عليه، وستُستخدم Deepfake في عمليات التصيد العشوائي، وغيرها من استراتيجيات الهجوم الأمني السيبراني لاستهداف الضحايا استهدافا فعالا، وهذا يعني أن Deepfake تُعرّض الشركات، والأفراد، والحكومات لخطر متزايد.
يقول بن لام، الرئيس التنفيذي لشركة (Hypergiant Industries): “المشكلة ليست في تقنية GAN بالضرورة، المشكلة هي أن الجهات الفاعلة السيئة لديها حاليا ميزة كبيرة، ولا توجد حلول قائمة لمواجهة التهديد المتزايد، ومع ذلك، يوجد عدد من الحلول والأفكار الجديدة الناشئة في مجتمع الذكاء الاصطناعي لمكافحة هذا التهديد، ومع ذلك، يجب إيجاد الحل أولا”.
ثالثا: ما الذي فُعل لمحاربة Deepfake؟
خلال وقت مضى بعثت لجنة الاستخبارات التابعة لمجلس النواب الأمريكي برسالة إلى تويتر وفيسبوك وغوغل، تسأل فيها عن الكيفية التي خططت بها مواقع التواصل الاجتماعي لمحاربة Deepfake في انتخابات 2020، إذْ صدر هذا التحقيق بعد أن نشر الرئيس ترامب تغريدة بها مقطع مرئيّ معدل بخاصية Deepfake عن رئيسة مجلس النواب نانسي بيلوسي.
وقد جاء ذلك بعد أن طالب الكونغرس في يناير مدير الاستخبارات الوطنية بتقديم تقرير رسمي عن تقنية Deepfake، ففي حين أن التحقيق التشريعي أمر بالغ الأهمية إلا أنه قد لا يكون كافيًا.
المؤسسات الحكومية مثل: DARPA، والباحثون في كلياتٍ مثل: جامعة كارنيغي ميلون، وجامعة واشنطن، وجامعة ستانفورد، ومعهد ماكس بلانك للمعلوماتية، يجربون أيضًا تقنية Deepfake، إذْ تبحث المنظمات في كيفية استخدام تقنية GAN، وكذلك كيفية مكافحتها، إذْ يأملون أن تُساعد أجهزة الكمبيوتر على تحديد متى يوجَد شيء مزيف بخاصية Deepfake؛ وإذا كان هذا يبدو كسباق تسلح، فهذا لأننا نستخدم التكنولوجيا لمحاربة التكنولوجيا في سباق لن ينتهي.
في حين أن التقدم في تكنولوجيا Deepfake يمكن أن يساعد في اكتشاف خدع Deepfake أيضا، فقد يكون هذا متأخرًا جدًا بمجرد تآكل الثقة في التكنولوجيا، إذْ سيكون من المستحيل تقريبًا إعادتها، إذا أفسدنا إيمان المرء بالمرئيّ، فكم من الوقت حتى يُفقد الإيمان في الأخبار على شاشات التلفزيون، أو في المقاطع على الإنترنت، أو في الأحداث التاريخية التي تُبثّ مباشرةً؟
يقول شارون برادفورد فرانكلين (مدير السياسة في معهد التكنولوجيا الجديدة لأمريكا الجديدة): “تهدد مقاطع المرئيّات الخاصة بـDeepfake خطابنا المدني، وقد تتسبب في إلحاق ضرر كبير بالسمعة والنفسية للأفراد”، وأضاف: “كما أنها تجعل الأمر أكثر صعوبة للمنصات لكي تشارك في الإشراف المسؤول عن المحتوى عبر الإنترنت”.
ويواصل قائلا: “بينما يدعو الجمهور بشكل مفهوم شركات وسائل التواصل الاجتماعي إلى تطوير تقنيات لاكتشاف ومنع حدوث Deepfake، يجب علينا أيضًا تجنب وضع قواعد قانونية ستدفع بعيدًا في الاتجاه المعاكس، وستضغط على المنصات للمشاركة في الرقابة على حرية التعبير على الإنترنت”.
فإذا لم يكن التشريع التقييدي هو الحل، فهل يجب حظر التكنولوجيا؟!
في الوقت الذي يجادل الكثيرون فيه بنعم، تشير الأبحاث الجديدة إلى أنه يمكن استخدام شبكات GAN للمساعدة في تحسين “المخططات متعددة الاستبانة” التي تتيح جودةً وصورةً أفضل للقطع الأثرية في الأشعة السينية، وكذلك الأحداث المحتملة (سيناريوهات) لحالات الاستخدام الطبي الأخرى، قد تكون قاب قوسين أو أدنى.
هل هذا يكفي لوقف الضرر؟! الطب مهم، لكن كذلك ضمان الأساس لديمقراطيتنا وصحافتنا.
لقد فقد الكثير من الأمريكيين ثقتهم في الأخبار، ومع نمو تقنية Deepfake ستزداد صيحات الأخبار المزيفة. يجب أن يكون الحل لهذه المشكلة مدفوعًا من قِبل الأفراد حتى تتمكن الحكومات، أو المتخصصون بالتكنولوجيا، أو الشركات من إيجاد حلٍ، وإذا لم يوجد دافع فوري للإجابة، فقد يكون الأوان قد فات.
تلك هي التقنية الجديدة التي أثرت بشكل كبير على عالم المرئيّات ووسائل التواصل الاجتماعي، فما رأيك أنت؟
https://whatis.techtarget.com/definition/deepfake
https://www.popularmechanics.com/technology/security/a28691128/deepfake-technology/