الـ Deep fake يثير ذعر الأمريكيين قبل الانتخابات.. الكونجرس يبحث مخاطر مقاطع الفيديو المركبة بتقنية عالية فى حروب التضليل.. فيديو نانسى بيلوسى فى حالة سكر عزز المخاوف.. وباحثون يبتكرون وسيلة لاكتشافها

الإثنين، 17 يونيو 2019 09:30 م
الـ Deep fake يثير ذعر الأمريكيين قبل الانتخابات.. الكونجرس يبحث مخاطر مقاطع الفيديو المركبة بتقنية عالية فى حروب التضليل.. فيديو نانسى بيلوسى فى حالة سكر عزز المخاوف.. وباحثون يبتكرون وسيلة لاكتشافها الكونجرس
كتبت ريم عبد الحميد

مشاركة

اضف تعليقاً واقرأ تعليقات القراء

يوما بعد يوم، يزداد انتباه العالم للخطورة الشديدة التى تمثلها مقاطع الفيديو المفبركة بدقة عالية لتبدو وكأنها حقيقية، والتى يطلق عليها اسم Deepfake. فالظاهرة التى بدأت فى العامين الأخيرين، والتى لم تحظى بمثل هذا القدر من الاهتمام إلا بعد اقتحامها معترك السياسة وتبين مدى تأثيرها الشديد على مصير سياسيين.

 

وتعد مقاطع الفيديو الـ"deep Fake" خطيرة ليس فقط فى طبيعتها، ولكن أيضا، وكما تقول صحيفة واشنطن بوست، للطريقة التى تعد بها بتقديم الحقيقة، لاسيما فى الولايات المتحدة حيث تدور نقاشات كبرى حول الحقائق.

 

فيديو يوضح تقنية الـ"Deep Fake"

 
 

وكان الكونجرس قد عقد الأسبوع الماضى جلسة حول التطور الذى يشعر الباحثون بالقلق بأنه سيكون الجبهة المقبلة فى حروب التضليل المعلوماتية، حيث تسمح تقنية الـ Deep fake  للمبدعين الشرعيين وللأطراف الخبيثة على حد سواء بصياغة لقطات نابضة بالحياة لأى شخص يحلو لهم، وتتحسن هذه التقنية بسرعة كبيرة.

 

وتعتمد هذه التقنية على مجموعة من الصور والفيديوهات الخاصة بالشخص المستهدف، وتشمل كل حركات الوجه تقريبا وانفعالاته من غضب وفرح وصمت وسعادة وغيرها، وتقوم التقنية بدراسة كل تلك الصور وإسقاط وجه الشخصية على أى وجه شخص آخر يمثل مشهد ما ليتم تصويره ثم تمرير لبرمجية الـ Deep Fake التى تقوم بتلفيق ومحاكاة وجه الشخص المستهدف على الفيديو ليبدو أنه هو من قال وفعل كل ما قام به ممثل المشهد، كل هذا بتقنية عالية الجودة يصعب اكتشافها.

 

وكان مقطع فيديو مشوه قد أظهر رئيسة مجلس النواب الأمريكية نانسى بيلوسى فى حالة سكر، ولم يكن فيديو مركبا بل كان حقيقيا لكن تم تشويهه بطريقة معينة جعلها تبدو فى حالة سكر، ورغم أن الفيديو بدائى، إلا أنه أظهر أن التلاعب البسيط يمكن أن يحقق انتشارا.

وحتى الآن يظل خطر هذه الفيديوهات فى إطار التهديد، فرغم أن مقاطع الـ deepfake السياسية موجودة فى دول أخرى، لكن فى الولايات المتحدة يقتصر استخدامها حتى الآن فى المواد الإباحية. لذلك يصعب معرفة كيفية تنظم أمر لم يحدث بعد، وهو السبب الذى تقول "واشنطن بوست" إنه يجب أن يدفع المشرعين أولا للتركيز على التحقيق فى الكيفية التى قد ينفذون بها القانون الحالى لحقوق النشر والتشهير والمضايقة.

 

وكان تقريرا لشبكة "سى إن إن" الأمريكية الأسبوع الماضى قد كشف عن قلق القادة السياسيين الأمريكيين والمرشحين فى انتخابات الرئاسة 2020 وأيضا مسئولى الاستخبارات من استخدام مقاطع فيديو Deep fake لتضليل الناخبين، مما عزز البحث عن محاولات للتعامل معها. وقال التقرير إنه على الرغم من أن مقاطع الفيديو الـ deep fake لم تنتشر بعد، إلا أن الحكومة الأمريكية قلقة من أن خصومها الأجانب يمكن استخدامها فى محاولاتهم للتدخل فى انتخابات 2020.

وفى تقييم للتهديدات العالمية فى يناير الماضى، حذر مدير الاستخبارات الوطنية الأمريكية دان كوتس من أن هذه الفيديوهات المفبركة ستكون على الأرجح من بين الوسائل التى يستخدمها الناس لتعطيل الانتخابات.

وفى محاولة لمنع انتشار التضليل المعلوماتى المرتبط بتقنية "ديب فيك"، يطور هانى فريد الخبير فى تشريح الصور فى كلية دارتماوث برنامجا يمكن أن يوقف الفيديوهات السياسية المفبركة بدقة كبيرة وربما التأكد من صحة الفيديوهات الحقيقية التى يصفها البعض بأنها مزيفة أيضا.

ويعمل فريد ومعه طالب دراسات عليا على تطوير ما يعرف باسم البيومترية الناعمة، وهى وسيلة لتمييز شخص واحد عن النسخ المزيفة منه.

ويستكشف الباحثون هذا من خلال استخدام أدوات آلية لسحب مقاطع فيديو أصلية من يوتيوب لأشخاص مثل الرئيس ترامب أو سابقه الرئيس باراك أوباما، ويبحثون عن علاقات بين حركات الرأس ونمط الكلام وتعبيرات الوجه.

ويقول فريد إنه على سبيل المثال عندما ينقل أوباما أخبارا سيئة يكون عابسا ويميل إلى خفض رأسه للأمام، بينما يميل لرفع رأسه عندما ينقل أخبار سعيدة. وتستخدم هذه الارتباطات لبناء نموذج لفرد مثل أوباما، وبالتالى عندما ينتشر فيديو له يمكن استخدام هذا النموذج لتحديد ما إذا كان حركات الرأس وأنماط الكلام تتوافق مع ما يقوم به الرئيس السابق فى المعتاد.

وفى أكتوبر الماضى، نشر مجلس العلاقات الخارجية الأمريكى تقريرا عن هذه التقنية، قال فيه إن هناك صعوبة حالية فى التعامل مع هذه المشكلة، فلا يوجد خيار لوقف التقدم التكنولوجى الذى يجعل مثل هذه البرمجيات متاحة، إلا أن تقرير مجلس العلاقات الخارجية يقول إن هذه المشكلة التى سببتها التكنولوجيا يمكن معالجتها لحلول تكنولوجية باستخدام تقنيات عالية الجودة للكشف عن المواد المزيفة العميقة؛ لكن تظل هذه الحلول بحاجة إلى اعتمادها من قبل وسائل الإعلام التقليدية والاجتماعية، التى تساعد بالأساس على انتشار مثل هذه المواد.







مشاركة



الموضوعات المتعلقة


لا توجد تعليقات على الخبر
اضف تعليق

تم أضافة تعليقك سوف يظهر بعد المراجعة





الرجوع الى أعلى الصفحة