هكذا تكافحون الإباحية المفبركة

هكذا تكافحون الإباحية المفبركة

08 مايو 2018
المشاهير هم الأكثر استهدافاً (بابلو بلاسبرغ)
+ الخط -
تصاعدت المخاوف من قدرات الذكاء الاصطناعي على استخدام الصور الشخصية للأشخاص العاديين والنجوم وتحويلها إلى جزء من مقاطع إباحية، عبر تقنية "إباحية الزيف العميق" Deepfake Porn.

ورغم محاولة عمالقة التكنولوجية السيطرة على هذه الظاهرة، عبر حظر الحسابات والصفحات التي تروج لها، وبينها موقع "تويتر" و"ريديت" وموقع الأفلام الإباحية "بورن هاب"، إلا أن قدرات الذكاء الاصطناعي في تزايد متواصل ينذر بفقدان السيطرة، لذا نشر موقع "ذا نيكست ويب" التقني سلسلة من الحلول التي يمكن بها تجنب الوقوع في فخ تحول صوركم إلى فيلم إباحي.

آلية عمل تقنية "الزيف" العميق

يستخدم هذا النوع من الذكاء الاصطناعي "الشبكات العصبية" لأداء وظائفه. و"الشبكات العصبية" هي بنية برمجية مصممة تقريباً مثل الدماغ البشري. عندما تُعطى شبكة عصبية العديد من عينات من نوع معين من البيانات، مثل صور شخص ما، ستتعلم القيام بوظائف مثل اكتشاف وجه ذلك الشخص في الصور، أو في حالة الزوايا العميقة، يمكنها استبدال وجه شخص آخر به.

ويعتمد هذا النوع من الذكاء على البيانات لإنشاء فيديو مزيف جيد الصنع، لذا يحتاج ذوو النيات السيئة إلى صور وجه الشخص الموجود في الفيديو الأصلي من زوايا عديدة، وهذا يعني أنه سيكون من الصعب صنع نموذج مزيّف لشخص عشوائي، لأنه يحتاج الآلاف من الصور.

ويعني هذا أيضاً أن المشاهير والسياسيين والرياضيين وغيرهم من الأشخاص الذين يظهرون بانتظام على شاشات التلفزيون أو ينشرون الكثير من الصور ومقاطع الفيديو عبر الإنترنت هم الهدف الأسهل.



أولى الخطوات الفورية

يقترح الموقع زيادة الوعي كخطوة أولى، من خلال تثقيف الناس حول قدرات خوارزميات الذكاء الاصطناعي وتطبيقاته المتاحة للجمهور، إذ لن تكون الإجراءات مفيدة ما دام الناس لا يدركون الفرق بين المحتوى الحقيقي والمزيف.

كما ستكون التدابير القانونية مهمة أيضاً، خصوصاً في ظل وجود ثغرة قانونية كبيرة لا تمنح الأشخاص حمايةً من هذا النوع من التسجيلات البصرية والصوتية المزورة، لذا ففرض عقوبات صارمة سوف يرفع كلفة إنشاء مثل هذا المحتوى ويحد من استخداماته السيئة.

تكنولوجيا للتعامل مع التزوير الذكي

للمفارقة، فإن أفضل وسيلة لمحاربة الذكاء الاصطناعي هي الذكاء الاصطناعي، فكما تعلمت الخوارزميات تحليل الوجه لتزويره، يمكنها أن تتعلم كشف هذا التزوير في الصور والفيديو والصوت.

قد يصبح التزييف في مرحلة ما حقيقياً لدرجة تجعل حتى الذكاء الاصطناعي غير قادر على اكتشافه، وقد يظهر الكثير من الأشخاص وهم ينكرون جرائم صوّرتها الكاميرات بمبرّر أنها من صنع الذكاء الاصطناعي، وهذا الادعاء أيضاً سوف يكون صعب التثبت.

لذا سيتطلب ذلك تتبع تحركات الأشخاص وأنشطتهم للحصول على أدلة للتحقق من صحة المواد المنشورة عن هؤلاء الأشخاص. وعلى المستخدم أن يعلم أن الذكاء الاصطناعي يعتمد على البيانات، لذا على الشخص حماية خصوصيته من خلال عدم منح بياناته جملةً لشركة واحدة، وإلا وجد نفسه ضحية لفضيحة مشابهة لشركة الاستشارات السياسية "كامبريدج أناليتكا" التي استولت على بيانات 87 مليونا من مستخدمي "فيسبوك"، لأهداف سياسية حول العالم.

وقد تستخدم غرف التعدين من أجل ضمان مصداقية المقاطع، بحيث يجمع كل فيديو أو تسجيل صوتي الكثير من التوقيعات الرقمية على الإنترنت، وكلما زاد عدد التوقيعات زاد التأكد من أن المقطع حقيقي.

(العربي الجديد)

المساهمون