الأخبار الكاذبة تقتحم الفيديو

لا تصدّقوا كلّ ما تشاهدونه... الأخبار الكاذبة تقتحم الفيديو

27 يوليو 2017
الأخبار الكاذبة ستعتمد الذكاء الصناعي (يوتيوب)
+ الخط -
يبدو أن انتشار  الأخبار الكاذبة لن يقتصر بعد اليوم على المقالات والصور المعدلة وغير الحقيقية، بل سينتقل إلى الفيديو أيضاً. هذا ما أوضحه موقع "كوارتز" من خلال تجارب لعلماء استطاعوا التلاعب بخطابات مسؤولين لإيصال خبر غير حقيقي على الإطلاق دون أن يستطيع المتلقي العادي ملاحظة أي فرق.

واستخدم فريق من علماء الكمبيوتر في جامعة واشنطن الذكاء الاصطناعي لعرض أشرطة فيديو مقنعة بصرياً لباراك أوباما وهو يقول أشياء قالها فعلاً من قبل، لكن في سياق جديد كلياً، ما يظهر معنى كاذباً ومزوراً.

كيف تعمل التقنية؟
في ورقة نشرت هذا الشهر، شرح الباحثون منهجيتهم: باستخدام شبكة عصبية مدربة على 17 ساعة من لقطات للرئيس الأميركي السابق، باراك أوباما، كانوا قادرين على توليد أشكال من حركات الشفاه انطلاقاً من مقاطع صوت لأوباما، ثم تمّ تركيب الأشكال على وجه أوباما في فيديو آخر مختلف تماماً. وأخيراً، قام الباحثون بإعادة تعديل الفيديو المستهدف بنقل جسم أوباما بشكل طبيعي إلى إيقاع المسار الصوتي الجديد.

وهذه ليست أول دراسة لإثبات تعديل وجه أثناء الحديث في مقطع فيديو، ففي يونيو/حزيران من العام الماضي، نشر باحثو ستانفورد منهجية مماثلة لتغيير تعابير الوجه المسجلة مسبقاً للفرد في الوقت الحقيقي لتقليد تعبيرات شخص آخر من خلال كاميرا الحاسوب، غير أن الدراسة الجديدة تضيف القدرة على توليف الفيديو مباشرة من الصوت.

تطبيقات واعدة... وأخرى مخيفة
وأشار الباحثون إلى العديد من التطبيقات العملية للقدرة على توليد الفيديو عالي الجودة من الصوت، بما في ذلك مساعدة الناس ضعاف السمع على قراءة الشفاه أثناء مكالمة هاتفية أو خلق شخصيات رقمية واقعية في صناعة السينما والألعاب.

لكن النتيجة الأكثر إثارة للقلق لهذه التكنولوجيا هي قدرتها على نشر الأخبار المزيفة المرتكزة على الفيديو. فرغم أن الباحثين استخدموا الصوت الحقيقي فقط للدراسة، إلا أنهم تمكنوا من إعادة ترتيب جمل أوباما بسلاسة، وحتى استخدام الصوت لشخص آخر انتحل صوت أوباما لتحقيق نتائج شبه مثالية. كما أن التقدم السريع لبرمجيات التوليف الصوتي يوفر حلولاً سهلة الاستخدام للتزوير.

حدود هذه التقنية
في الوقت الحالي، لا تزال فعالية تقنية تركيب الفيديو هذه مقيدة بمقدار ونوعية اللقطات المتاحة لشخص معين. وحالياً تتطلب خوارزميات الذكاء الاصطناعي عدة ساعات على الأقل من اللقطات.

واختار الباحثون أوباما كحالة أولى للدراسة لأن تصريحاته توفر كميات كبيرة من لقطات عالية الوضوح وهو ينظر مباشرة إلى الكاميرا ويعتمد لهجة متسقة من الصوت. لكن في المقابل فإن تجميع مقاطع فيديو لشخصيات عامة أخرى لا تستوفي هذه الشروط سيكون أكثر صعوبة ويتطلب المزيد من التقدم التكنولوجي.

ورغم ذلك تبقى هذه التكنولوجيا خطرة على المستخدم العادي حول العالم الذي سيجد صعوبة كبيرة في التمييز بين التصريحات المزيفة والحقيقية، خصوصاً تلك التي ستأتي معتمدة على تقنية عالية الإتقان.


تجتاح العالم ظاهرة أخبار كاذبة عززتها الرقابة غير الفعّالة بشكل كافٍ لمواقع التواصل الاجتماعي. وهو ما دفع الخبراء والتقنيين إلى دق ناقوس الخطر، خصوصاً بعد استخدام الأخبار الكاذبة كوسيلة للتأثير على الانتخابات ومسار السياسات العامة في الدول الديمقراطية.
وتتهم دول مثل روسيا بشن حروب أخبار كاذبة لتعديل مسار الانتخابات، وهو ما دفع ألمانيا إلى التحذير من تأثيرها وكذلك فعلت فرنسا من قبل خلال الانتخابات الأخيرة، خصوصاً بعد توجيه الاتهام للأخبار الكاذبة بأنها كانت السبب في نجاح الرئيس الأميركي الحالي دونالد ترامب في الانتخابات.

ورغم أن هذه التكنولوجيا تحتاج إلى استثمارات كبرى من حيث المال والموارد البشرية والوقت والتقنيات، إلا أن موارد الدول والحكومات ستكون قادرة على توفير فرص إنجاحها ما يجعل من مقاطع التصريحات الزائفة سلاحاً يهدد مصداقية محتوى الإعلام في مواقع التواصل وسلاح حرب بين الدول.