“من الانقلابات السياسية إلى الأفلام الإباحية”.. إلى أي مستوى تصل خطورة تقنية “Deep Fake”؟/ شادي عبد الحافظ
على الرغم من أن العمل البحثي الخاص بتقنية “التزييف العميق” قد بدأ مبكرا في عام 1997، حينما نشر(1) فريق بقيادة كريستوفر بولجر، الذي كان وقتها عالما في مؤسسة “إنترفال ريسيرش”، ورقة عن كيفية تعديل حركات الشفاه البشرية في الفيديوهات بحيث يبدو وكأن هذا الشخص يقول كلاما مختلفا عما يقوله حقا، فإنه لم يلفت انتباه الجمهور حول العالم إلا عام 2018، في السابع عشر من إبريل/نيسان تحديدا، حينما نشرت منصة “باز فيد” فيديو لباراك أوباما يتحدث فيه بطريقة غير عادية ويهاجم دونالد ترامب.
تبيّن بعد ذلك أنه الفنان الأميركي جوردان بيل، الذي يؤدي -صوتيا- دور باراك أوباما، بينما تعمل تقنية التزييف العميق (Deep Fake) على ضبط شفاه أوباما لتتفق مع ما يقول بيل، لفت الفيديو انتباه عشرات الملايين حول العالم، لدرجة أن البعض صدّقه، على الرغم من أن بيل -على لسان أوباما- قال فيه: “هذا زمن خطير، يجب أن نكون متيقّظين تجاه ما نحصل عليه من الإنترنت”.
You won’t believe what Obama says in this video 😉 pic.twitter.com/n2KloCdF2G
— BuzzFeed (@BuzzFeed) April 17, 2018
في عام 2019 شاع فيديو آخر لممثل أميركي شهير يُدعى “بيل هيدر” يُقلِّد فيه توم كروز، بينما عمل مؤسس قناة “Ctrl Shift Face” على يوتيوب على تركيب كامل وجه توم كروز على وجه الفنان بينما يتحدث، في تلك الأثناء أصبحت نسخ أقل دقة من التقنية متاحة للجمهور العام، الأمر الذي فتح الباب لأطنان من الفيديوهات بتقنية “التزييف العميق”، لكن فيديو ظهر في مطلع مارس/آذار 2021 لكريس أوم، فنان المؤثرات المرئية الأميركي، قلّد فيه توم كروز مع تقنية التزييف العميق بدقة غير مسبوقة خدعت الملايين على منصة “تيك توك”، تسبَّب في موجة جدل جديدة حول هذه التقنية.
الفكرة الخاصة بالتزييف العميق -بدرجة من التبسيط الشديد الذي لا يفيها حقها بالطبع- هي نفسها الفكرة القديمة لاستخدام الفوتوشوب في التزييف، أحدهم يود تحسين صورته على الإنترنت فيقوم بنقل وجهه إلى جسد أحد لاعبي كمال الأجسام، ثم يضبط الصورة ويرفعها لحسابه على إحدى المنصات، لكن في حالة التزييف العميق فإن الذكاء الاصطناعي يتدخَّل ليستخدم تقنيات التعرف على الوجه المتقدمة ويُوجِّهها إلى نطاق آخر، وهو تركيب ملامح وجهك، التي سيحصل عليها من تحليل كمٍّ كبير من الصور والفيديوهات الخاصة بك، على وجه شخص آخر في فيديو متحرك!
إنه التطور الطبيعي لتزييف الصور، لكن الفيديوهات تُقنع البشر بفارق هائل مقارنة بالصور، أضف إلى ذلك أننا تعلمنا -على مدى زمني كبير وصل إلى أكثر من ثلاثة عقود- أن الصور يمكن أن تُفبرك، هذا النوع من المعارف لا نُحصِّله بين يوم وليلة، بل يجب أن يكون حالة عامة تتخلل المجتمعات شيئا فشيئا، لكن الصور بسيطة، أما الفيديوهات فهي كل شيء تقريبا على الإنترنت، الأسوأ من ذلك أن الجمهور ما زال غير مدرك لحجم تأثير تقنيات مثل هذه، هل تتصور مثلا أن الأمر يقف عند حد تزوير فيديو لترامب أو أوباما أو مارك زوكربيرغ؟
تخيّل معنا السيناريو التالي، في إحدى الدول هناك درجة من الاضطراب بسبب حادث قيام أحد ضباط الشرطة بقتل مواطن يبيع البطاطا في الشارع لسبب تافه، الأمور متأججة وقد خرجت الكثير من التظاهرات التي تطالب بالتحقيق مع هذا الضابط، يتطور الأمر لبعض العنف، لكن في أثناء كل ذلك، وفي لحظة حاسمة، يخرج رئيس وزراء الدولة ليُطالب بتوقُّف أعمال العنف وإلا “ستستخدم الدولة يدها الحديدية كما فعلت مع بائع البطاطا”.
في الأوقات العادية يمكن أن يتطلّب الأمر عدة ساعات أو نصف يوم لكي نتأكد من صحة هذا الفيديو وتُعلن الحكومة أنه مفبرك بتقنية “التزييف العميق” وتهدأ الأمور، لكن في الحالات الحرجة زمنيا فإن دقيقة واحدة يمكن أن تكون الفارق بين أن تهدأ ثورة في بلد ما أو أن يستمر اشتعالها بلا توقف، في الحالة السابقة حينما تعلن الحكومة عن أن هذا الفيديو مفبرك وتؤكد ذلك خلال أربع إلى خمس ساعات مثلا، فسيكون مستوى العنف قد تصاعد لنقطة اللا عودة.
دعنا الآن نتخيّل سيناريو آخر، شركة “بلو أوريجنز” الخاصة بجيف بيزوس نجحت لأول مرة في إطلاق صاروخ جديد يستهلك كمًّا منخفضا جدا من الوقود، خلال اليوم التالي لهذا الإطلاق تصاعدت أسهم الشركة شيئا فشيئا، لكن أحدهم نشر على تويتر فيديو لجيف بيزوس نفسه، في مكتب مرموق بأحد الفنادق الكبرى في نيويورك، وهو يتلقى جرعة من الهيروين ويتحدث بطريقة يبدو خلالها أنه غير واعٍ بما يفعل.
سينتشر الفيديو كالنار في الهشيم، لكن ذلك بالتبعية سيدفع عددا لا بأس به من المستثمرين لسحب أسهمهم من شركة بيزوس، خلال نحو 24 ساعة سيتمكَّن بيزوس من الوصول للجمهور بالحقيقة، وهي أن هذا الفيديو مفبرك تماما بتقنية “التزييف العميق”، لكنه سيكون قد خسر نحو عشرة مليارات دولار من ثروته في ليلة واحدة.
بالنسبة لبيزوس فإن ما حدث هو مجرد اهتزاز في ثروته، لكن ماذا لو حدث ذلك لمستثمر مبتدئ أو في أسواق دولة نامية؟ ألا يمكن لهذا المستوى من التزييف أن يُستخدم للتحكم في سوق تجارة السيارات مثلا أو الهواتف الذكية خلال لحظات حاسمة جدا؟ ألا يمكن أن يُغيِّر ذلك من نتائج الانتخابات، قبل أن تبدأ الانتخابات بساعات قليلة؟ نحن نعرف أنه يمكن لفيديو مدته أقل من دقيقة أن يصنع مليارات المشاهدات في ساعات قليلة! الأمر إذن لا يتعلّق فقط بأن نتمكَّن من كشف زيف تلك التقنيات أم لا، وهو سؤال سنجيب عنه بعد قليل، لكنه يتعلّق بأنك لن تتمكَّن من إيجاد الوقت الكافي للتعامل مع الخسائر لحين كشف الزيف.
من جانب آخر، فإن ما سبق يدفعنا بالضرورة لسؤال أكثر عمقا وأهمية: ألا يمكن لهذه التقنيات أن تُستخدم بالتبعية لعمليات ابتزاز؟ في الواقع، هذا ممكن جدا، لكن حينما نتحدث عن الابتزاز فإن “البزنس” أو “السياسة” لن يكونا نقطة اهتمامنا أصلا، بل الأفلام الإباحية!
بحسب تقرير أصدرته(2) مؤسسة “ديب ترايس” (Deeptrace) لأمن المعلومات فإن عدد الفيديوهات التي تعتمد على تقنية التزييف العميق قد تضاعف على الإنترنت ما بين عامي 2018-2019، لكن الملمح الأهم في هذا التقرير كان أن 96% من الفيديوهات التي صدرت بتلك التقنية كانت إباحية، حيث وضعت وجوه ممثلات(3) (أميركيات بالأساس) على وجوه بطلات أفلام إباحية ثم لاقت تلك الفيديوهات انتشارا كبيرا بين مستخدمي المواقع الإباحية فور صدورها.
في الواقع، لقد نشأت بالفعل مجموعة من المنتديات التي يمكن أن تدخلها لتطلب عمل فيديو خاص بك سواء لنفسك أو لأحد من معارفك، تضع تلك المنتديات قواعد عامة تتضمن ألا يُزيَّف أي فيديو لشخصية عادية في محتوى إباحي، لكنها تسمح بالتزييف الإباحي للمشاهير، هذا بالطبع سلوك غريب جدا، وكأن فنانة مشهورة لن تتأثر بوجودها في فيديو إباحي، لكن الفكرة أنه يمكن لأي أحد التواصل مع أيٍّ من هؤلاء المبرمجين بشكل خاص وطلب فيديو خاص لابتزاز إحداهن، لم نرصد ذلك بعد، لكن لدينا دليل أنه من المحتمل جدا أن يحدث.
خذ مثلا ذلك التقرير(4) الذي أصدرته منصة “سنستي” للأعمال الإلكترونية الاستخباراتية الذي رصد إحدى القنوات على تطبيق “تيلجرام”، التي ضمّت “بوت” إنترنتي وظيفته استخدام تقنية الذكاء الاصطناعي لإزالة الملابس عن صور السيدات التي يرسلها الناس إليه، التطبيق لا يزيل الملابس بالطبع، بل يُزيِّف الصور بإكمال الجسد المناسب من قاعدة بياناته، نتيجة ذلك كان 100 ألف صورة رصدها التقرير خرجت من هذا البوت الإلكتروني.
كالعادة، أشار مصممو البوت إلى أن ما حدث كان لغرض الترفيه، لكن هل هو كذلك حقا؟ هذا النوع من التقنيات سيستمر في التقدُّم والتمايز، الآن نعرف أنه غير متقدم كفاية بحيث يستخدمه الجميع، وأن هناك عددا قليلا من الخبراء يتمكَّن من إصدار فيديوهات بتقنية لا يمكن بسهولة فصلها عن الحقيقة، ويتطلب ذلك الكثير من الوقت والجهد، بينما يستخدم الهواة تقنيات يمكن بسهولة تمييز أنها مفبركة، لكن السؤال الأهم الآن عن مستقبل تلك التقنيات، هل يمكن أن تتطور لدرجة تجعلها لا تختلف عن الحقيقة؟ وهل سيكون من المستحيل قريبا معرفة ما إذا كان مقطع الفيديو أو الصوت أصليا بالعين المجردة أو الأُذن؟!
حينما بدأت تقنيات التزييف العميق في الظهور صار من الممكن بسهولة كشف الفبركة من خلال عدة معايير، مثل تضاريس الوجه مثلا، لأنك عادة ما تقوم بتركيب وجه بطول وعرض مختلف عن الذي سيوضع عليه، كان ذلك يترك بعض أثر “المط” على الوجوه، وهو أمر صار من الممكن كشفه بالنسبة للعين المجردة، لكن خبراء التزييف العميق تمكَّنوا من تلافي ذلك التشوُّه بحيث صار من غير الممكن رصده بالعين المجردة، بعد ذلك توجهت الشركات التي تعمل على إيجاد طرق لرصد الفبركة إلى حركات العين (الرمش تحديدا)، ثم خلال شهور فقط تمكَّن خبراء التزييف العميق من طمس تلك المشكلة.
“But they also offer a warning: Deepfake technology that has emerged in recent years continues to evolve and improve. And while deepfake videos have not yet been effectively used in many misinformation campaigns, the danger is growing.” 1/https://t.co/B8TUQtGGVn
— Timnit Gebru (@timnitGebru) March 9, 2021
الآن يتعارك الفريقان على تحليل سيكولوجية الوجه، بمعنى أنه من المفترض لوجهك أن يتحرك بطريقة تتناسب مع الكلام الخارج من فمك، لكن حتّى في تلك النقطة فإن خبراء التزييف العميق في طريقهم إلى إخفاء هذا النوع من الأخطاء. في ورقة بحثية(5) صدرت في فبراير/شباط 2021 من جامعة كاليفورنيا سان دييجو، جاء أنه يمكن لتقنيات التزييف العميق الحالية أن تهزم تقنيات كشف التزييف المتاحة. الأمر إذن، ربما، قد خرج بالفعل عن السيطرة.
هذه التقنيات المزيّفة للواقع تعتمد على تعلُّم الآلة، يشبه الأمر أن تكون صاحب مصنع حلوى، حينما يظهر إنتاجك الأول ينطلق فريق التسويق إلى الجمهور ويأخذ انطباعاتهم، تُجمع هذه الانطباعات ويجلس فريق من المحللين لدراستها واستخدامها في الدفعة الثانية من الإنتاج، فيكون أفضل من الأول، ثم يخرج الفريق نفسه لتحليل آراء الجمهور، وهكذا. في حالة الذكاء الاصطناعي فإنه يفعل الشيء نفسه تقريبا، توضع الأخطاء في قاعدة البيانات فيعمل على تحسينها في كل مرة إضافية، ولذلك فإن هذا الصراع بين المزيّف وكاشف الزيف -أينما نشأ- سيستمر بلا توقُّف، وهو كذلك منذ اللحظة الأولى التي دخلنا فيها إلى العصر الرقمي.
يقول فريق(6) من جامعة فيرجينيا الأميركية إنه بجانب المعامل التقني في هذه المشكلة، فإن هناك معاملا بشريا يتعلق بتصديق الناس لهذا النوع الجديد من الفبركة، فنحن نعرف أنه كلما انخفضت الخبرة بالإنترنت عموما وتقنيات التصوير والتزييف الرقمي خاصة، انخفض تشكُّك الشخص الذي يقوم بتقييم المعلومات، كذلك نعرف أن تصديق الناس للأخبار المزيفة قائم بالأساس على تحيزاتهم ناحية قناعاتهم السابقة، فإذا كنت تميل نحو تيار سياسي ما فهناك احتمال أن تُصدِّق أخبارا مزيفة ضد التيار المضاد.
هذا النوع من التحيزات يمكن التعامل معه، ويقترح هذا الفريق أنه يجب على المدارس الثانوية والكليات دمج علم النفس المعرفي وأدوات التفكير النقدي في مناهجها الدراسية الإلزامية، الأمر إذن لا يتعلق بتعليم الناس عن التزييف العميق تحديدا، وهو أمر ضروري بالطبع، لكنه يمتد ليشمل حاجة ماسة إلى تطوير آليات تفكير المجتمع كله، بحيث يتمكَّن عدد أكبر من الناس من إدراك تحيزاتهم وفحص كل ما يُقدَّم عبر الإنترنت بعين الناقد العقلاني، من تلك الوجهة فإنه لا يمكننا أن ننتظر من التكنولوجيا وحدها أن تعالج المشكلة.
متى سيحدث ذلك؟ هل يمكن حقا أن نصل إلى تلك المرحلة؟ إجابات هذه الأسئلة هي للأسف “لا نعرف”، لكننا نعرف أن الحكومات حول العالم تتسابق لتقديم دعم مادي هائل لخبراء التزييف العميق حتى تستخدم تقنياتهم استخباراتيا، لكنها لا تفعل شيئا يُذكر في اتجاه محو الأمية الرقمية المعاصرة!
——————————————————————————————-
المصادر
Video Rewrite: Driving Visual Speech with Audio
Deepfake videos are a far, far bigger problem for women
Is it legal to swap someone’s face into porn without consent?
Fake naked photos of thousands of women shared online
Deepfake detectors can be defeated, computer scientists show for the first time
Why Are Deepfakes So Effective?
المصدر : الجزيرة