الجماعات المتشددة تدخل سباق الذكاء الاصطناعي: مخاوف أمنية تتصاعد عالمياً

15 ديسمبر 2025   |  آخر تحديث: 12:36 (توقيت القدس)
نصب تذكاري مؤقت لضحايا الهجوم الإرهابي في روسيا، أرمينيا 23 مارس 2024 (Getty)
+ الخط -

استمع إلى الملخص

اظهر الملخص
- بدأت الجماعات الإرهابية مثل "داعش" في استخدام الذكاء الاصطناعي لتعزيز عملياتها، بما في ذلك تجنيد أعضاء جدد وإنتاج محتوى مزيف وتحسين الهجمات السيبرانية، مما يزيد من تأثيرهم وانتشارهم.

- رغم سعي الجماعات المتطرفة لاستخدام الذكاء الاصطناعي، إلا أن قدراتها محدودة مقارنة بدول كبرى، لكن المخاطر تبقى كبيرة، حيث يمكن استخدامه في هجمات تصيّد أو تطوير أسلحة بيولوجية أو كيميائية.

- استجابة للتهديدات، طرح مشرعون أميركيون مقترحات لتسهيل تبادل المعلومات وأقر مجلس النواب تشريعاً لتقييم المخاطر سنوياً، مؤكدين على ضرورة تطوير السياسات لمواجهة التهديدات المستقبلية.

بينما يسارع العالم إلى تسخير قوة الذكاء الاصطناعي، بدأت التنظيمات الإرهابية هي الأخرى في تجربة هذه التكنولوجيا، حتى لو لم تكن متأكدة تماماً مما يمكن أن تفعله بها. فبحسب ما حذّر منه خبراء الأمن القومي ووكالات استخبارات، يمكن للذكاء الاصطناعي أن يتحول إلى أداة فعّالة للجماعات المتطرفة في تجنيد أعضاء جدد، وإنتاج صور مزيفة واقعية (ديب فايك)، وتحسين هجماتها السيبرانية.

وفي الشهر الماضي، نشر أحد مستخدمي موقع موالٍ لتنظيم داعش رسالة يدعو فيها أنصار التنظيم إلى جعل الذكاء الاصطناعي جزءاً من عملياتهم. وكتب بالإنكليزية: "من أفضل ميزات الذكاء الاصطناعي أنه سهل الاستخدام للغاية". وتابع: "بعض وكالات الاستخبارات تخشى أن يساهم الذكاء الاصطناعي في التجنيد.. فحوّلوا كوابيسهم إلى حقيقة".

ويرى خبراء الأمن القومي أنّه ليس مفاجئاً أن يختبر التنظيم هذه التكنولوجيا، خصوصاً أنّ "داعش" الذي فقد أراضيه في العراق وسورية، وتحول إلى شبكة لا مركزية من الجماعات التي تتشارك الأيديولوجيا نفسها، كان قد أدرك مبكراً قوة وسائل التواصل الاجتماعي في التجنيد ونشر التضليل.

ولدى الجماعات المتطرفة الصغيرة أو ضعيفة الموارد، بل حتى لدى أي فرد يمتلك اتصالاً بالإنترنت، القدرة على استخدام الذكاء الاصطناعي لإنتاج دعاية أو صور مفبركة على نطاق واسع، ما يعزز تأثيرهم ويزيد من قدرتهم على الانتشار.

وأوضح جون لاليبيرتي، الباحث السابق في وكالة الأمن القومي الأميركية والرئيس التنفيذي لشركة ClearVector المتخصصة في الأمن السيبراني: "بالنسبة لأي خصم، يجعل الذكاء الاصطناعي تنفيذ الأمور أسهل بكثير، فحتى الجماعات الصغيرة ذات الموارد المحدودة يمكنها أن تُحدث أثراً مع الذكاء الاصطناعي".

كيف تُجري الجماعات المتطرفة تجاربها؟

بدأت الجماعات المسلحة استخدام الذكاء الاصطناعي فور انتشار برامج مثل "تشات جي بي تي" على نطاق واسع. وخلال السنوات الماضية، لجأت بشكل متزايد إلى نماذج الذكاء الاصطناعي التوليدي لإنتاج صور ومقاطع فيديو واقعية المظهر.

وبارتباط هذا المحتوى الزائف بخوارزميات وسائل التواصل الاجتماعي، يمكنه تجنيد مؤيدين جدد، وإرباك الخصوم، ونشر الدعاية على نطاق لم يكن ممكناً قبل سنوات قليلة.

ففي العام الماضي، وبعد الهجوم الذي تبنّته جماعة تابعة لـ"داعش" في قاعة حفلات موسيقية في روسيا، وأسفر عن مقتل نحو 140 شخصاً، وفي الأيام التي تلت الهجوم، انتشرت مقاطع مصنوعة بالذكاء الاصطناعي على منصات النقاش ووسائل التواصل بهدف جذب مجندين جدد. كما أنّ "داعش" أنتج تسجيلات صوتية مزيفة لقياداته وهي تتلو نصوصاً دينية، واستخدم الذكاء الاصطناعي لترجمة رسائله بسرعة إلى لغات متعددة، وفقاً لباحثي مجموعة "سايت" للاستخبارات المتخصصة في مراقبة الجماعات المتطرفة وتتبع تطور استخدامها التكنولوجيا.

طموحات.. أكثر منها قدرات 

وبحسب ماركوس فاولر، الضابط السابق في وكالة الاستخبارات المركزية والمدير التنفيذي في Darktrace Federal، فإن قدرات الجماعات المتطرفة لا تزال محدودة مقارنة بدول مثل الصين وروسيا وإيران، وأنّ استخدام التطبيقات الأكثر تقدماً للذكاء الاصطناعي لا يزال "طموحاً" أكثر منه واقعاً. لكن المخاطر على حدّ وصفه كبيرة للغاية ولا يمكن تجاهلها، كما أنها مرشحة للتصاعد مع انتشار الذكاء الاصطناعي الرخيص والقوي.

ويشير فاولر إلى أن القراصنة يستخدمون منذ الآن صوراً ومقاطع صوتية مزيفة في هجمات التصيّد، إذ ينتحلون هوية مسؤولين كبار لاختراق شبكات حساسة. ويمكنهم كذلك توظيف الذكاء الاصطناعي لكتابة أكواد خبيثة أو أتمتة أجزاء من الهجمات.

والأخطر، بحسب فاولر، هو احتمال أن تحاول الجماعات المسلحة الاستفادة من الذكاء الاصطناعي لإنتاج أسلحة بيولوجية أو كيميائية، لتعويض نقص خبرتها التقنية. وقد أدرجت وزارة الأمن الداخلي الأميركية هذا التهديد في تقييمها المحدث للمخاطر. ويضيف فاولر: "داعش كان من أوائل من استغل تويتر وعرف كيف يوظّف وسائل التواصل الاجتماعي.. وهم دائماً يبحثون عمّا يمكن إضافته إلى ترسانتهم".

التعامل مع التهديد المتصاعد

طرح مشرعون أميركيون عدة مقترحات، مؤكدين أن التحرك بات ضرورة عاجلة. فقد شدّد السيناتور مارك وارنر، كبير الديمقراطيين في لجنة الاستخبارات في مجلس الشيوخ، على أن الولايات المتحدة ينبغي أن تسهّل على مطوري الذكاء الاصطناعي مشاركة المعلومات حول كيفية استخدام منتجاتهم من جهات سيئة، سواء متطرفين أو قراصنة أو جواسيس أجانب.

واعتبر وارنر أنّه "منذ أواخر عام 2022، ومع إطلاق تشات جي بي تي، كان واضحاً أنّ الانبهار العام بالذكاء الاصطناعي التوليدي سينسحب أيضاً على الجهات الخبيثة". وخلال جلسة استماع حديثة حول التهديدات المتطرفة، تبلّغ أعضاء مجلس النواب أنّ تنظيمي "داعش" و"القاعدة" عقدا ورش تدريب لمناصريهما حول كيفية استخدام الذكاء الاصطناعي.

كما أنّ تشريعاً أقرّه مجلس النواب الشهر الماضي يلزم مسؤولي الأمن الداخلي بإجراء تقييم سنوي للمخاطر التي تشكّلها هذه الجماعات في مجال الذكاء الاصطناعي. وأوضح النائب أوغست فلوجر، راعي مشروع القانون، أن "التحضير لمواجهة الاستخدام الخبيث للذكاء الاصطناعي لا يختلف عن الاستعداد للهجمات التقليدية.. سياساتنا وقدراتنا يجب أن تواكب تهديدات الغد".

المساهمون