استمع إلى الملخص
- يثير الذكاء الاصطناعي مخاوف بشأن نزاهة الانتخابات، حيث يمكن استخدامه لنشر معلومات مضللة وتوجيه الرأي العام بطرق تهدد العمليات الانتخابية، مثل استخدام الصور والفيديوهات المفبركة.
- تواجه الديمقراطيات تحديات في التعايش مع الذكاء الاصطناعي، مما يتطلب سياسات لمراقبة استخدامه، وتطوير أدوات للكشف عن الفبركة، وتعزيز محو الأمية الرقمية لحماية الديمقراطية.
بات الذكاء الاصطناعي اليوم أداة قوية تمتد تأثيراتها إلى مختلف جوانب الحياة، من دعم الابتكار إلى التأثير في القرار السياسي. ومع قدرته على إنتاج المحتوى وتوجيه الرأي العام، أثيرت تساؤلات عن دوره في تعزيز التجربة الديمقراطية أو تقويضها عبر الاستخدامات الضارة. فكيف تتعايش الديمقراطيات مع هذا التطور التكنولوجي دون الانزلاق نحو الفوضى أو الاستبداد الرقمي؟
إيجابيات الذكاء الاصطناعي على الديمقراطية
يورد موقع المعهد الجامعي الأوروبي عن أنصار التكنولوجيا والذكاء الاصطناعي أن زيادة الوصول إلى المعلومات والتعلم الآلي يمكن أن تساعد في معالجة المشاكل المجتمعية، بما في ذلك التعقيدات السياسية، بكفاءة أكبر. ويوضح الموقع: "هم يعتقدون أن خوارزميات التعلم الآلي يمكن أن تتخذ قرارات سياسية أفضل من البشر. وفي هذا العصر حيث البيانات الوفيرة والابتكار التكنولوجي، يُعتقد أن هذه القرارات التي يقودها الذكاء الاصطناعي ليست أكثر مثالية فحسب، بل إنها أيضاً أسرع وأكثر عقلانية وأقل تحيزاً، وتخدم الصالح العام للمجتمع. ونتيجة لذلك، يقترح البعض استبدال أوجه القصور في السياسة التقليدية بأساليب أكثر كفاءة وفعالية تعتمد على بيانات الذكاء الاصطناعي".
الانتخابات في خطر
يورد تقرير نشره البرلمان الأوروبي مخاوف عدة من تأثير الذكاء الاصطناعي على الديمقراطيات وعملية الانتخابات على وجه الخصوص. مخاوف نَمَت مع تطوره إلى أداة قوية للتضليل، ما قد يؤدي إلى توترات خلال الانتخابات قد تؤدي إلى العنف. يمكن للذكاء الاصطناعي، على سبيل المثال، توليد معلومات كاذبة، أو نشر تحيز أو آراء لا تمثل المشاعر العامة. وتوضح ورقة تحليلية لمؤسسة كارنيغي للسلام الدولي أن أدوات الذكاء الاصطناعي التوليدي "يمكنها كتابة النصوص والموسيقى، وصياغة الصور ومقاطع الفيديو الواقعية، وتوليد الأصوات الاصطناعية، والتلاعب بكميات هائلة من المعلومات. في حين أن نماذج الذكاء الاصطناعي التوليدي تحمل إمكانات هائلة للإبداع والابتكار، إلا أنها تفتح الباب أيضاً لإساءة الاستخدام بطرق مختلفة للمجتمعات الديمقراطية. إن هذه التقنيات تشكل تهديدات كبيرة للديمقراطيات من خلال تمكين الجهات الخبيثة، من المعارضين السياسيين إلى الخصوم الأجانب، من التلاعب بالتصورات العامة، وتعطيل العمليات الانتخابية، وتضخيم المعلومات المضللة".
ولعبت نماذج الذكاء الاصطناعي التوليدي دوراً في السباق الرئاسي الأميركي لعام 2024، إذ غمرت الصور والمقاطع المفبركة منصات التواصل الاجتماعي وتغلغلت في المجال السياسي الأميركي، حيث غالباً ما تشاركها شخصيات بارزة مثل الرئيس الأميركي المنتخب دونالد ترامب وحلفائه، الذين يروّجون مراراً وتكراراً للنكات المصوّرة والمحتوى المفبرك بالذكاء الاصطناعي. على سبيل المثال، أعاد ترامب نشر صورة مزيفة للمغنية تايلور سويفت وهي تؤيد حملته الانتخابية، وهو ما لم تفعله أبداً. كما نشر الديمقراطيون صوراً مزيفة لاعتقال ترامب.
يقول تحليل كارينغي: "يمكن أن تؤدي مثل هذه الصور المزيفة إلى حالات واسعة النطاق ومدمرة للغاية من التضليل"، و"الواقع أن هذه النماذج من الذكاء الاصطناعي قد تحوّلت إلى تكتيكات تصاعدت إلى حرب نكات مصورة كاملة النطاق للتأثير على الناخبين"، "إن القدرة على إنتاج محتوى مقنع تعمل على تضخيم خطر التلاعب النفسي، وهو ما يخلق تحدياً إدراكياً للمجتمعات الديمقراطية. مع تدفق المحتوى الذي يولده الذكاء الاصطناعي على المنصات الإلكترونية، تعمل خوارزميات وسائل التواصل الاجتماعي على تمكين انتشاره الفيروسي، غالباً من دون تدقيق كافٍ". هذا له تأثير نفسي عميق على الفرد، في زمن تجد فيه حتى أكثر وسائل الإعلام تطوراً والوكالات الحكومية وشركات التكنولوجيا صعوبة في فصل المحتوى الحقيقي عن المحتوى الذي يولّده الذكاء الاصطناعي.
استبداد رقمي وتدخل أجنبي
تلاحظ مؤسسة كارنيغي أن زيادة استخدام المحتوى الذي ولّده الذكاء الاصطناعي تساعد على الاستبداد الرقمي من خلال تبني المراقبة الجماعية المعززة بالذكاء الاصطناعي، وتوضح أن "تقاطع الاستبداد الرقمي وأنظمة الذكاء الاصطناعي، من تقنيات الذكاء الاصطناعي الأكثر بساطة إلى أحدث برامج توليد المحتوى، يعمل على تسهيل عمل الحكومات الاستبدادية، سواء على المستوى المحلي أو في تكتيكات التدخل الأجنبي، وهو ما يمثل تحدياً رئيسياً للديمقراطية في القرن الحادي والعشرين".
"وعلى المدى البعيد، قد يؤدي تآكل الثقة هذا إلى جعل الأنظمة الديمقراطية أكثر عرضة للتدخل الخارجي وأقل مرونة في مواجهة الانقسامات الداخلية التي يمكن للأعداء استغلالها بسهولة"، "وهنا يصبح الاستبداد الرقمي المدعوم بالذكاء الاصطناعي أكثر خطورة. في حين تعمل الأنظمة الاستبدادية على تحسين استخدامها للتكنولوجيات الرقمية للسيطرة على السكان محلياً، تواجه الدول الديمقراطية تحدي حماية نزاهتها الانتخابية ضد حملات التضليل من الخصوم الأجانب التي يقودها الذكاء الاصطناعي. غالباً تنظم الدول أو وكلائها هذه الحملات، ويمكن أن تقلب الموازين في الانتخابات المتنازع عليها"، "أو تؤثر على نسبة المشاركة في التصويت، أو تتلاعب بالتركيبة السكانية الرئيسية المتأرجحة"، يقول تحليل كارينغي.
قوة عملاقة لشركات التكنولوجيا
في الوقت نفسه، أثرت القوة شبه الاحتكارية لشركات التكنولوجيا الكبرى الغربية، التي تهيمن على مجال الذكاء الاصطناعي، أيضاً على عمليات الحكم الديمقراطي. توضح "كارينغي": "لقد منحت ملكية هذه الشركات لمنصات التواصل الاجتماعي، وتحليلات البيانات الضخمة، وحقها في مراجعة المحتوى، نفوذاً هائلاً على الخطاب العام. علاوة على ذلك، تسلّط المخاوف الأخيرة بشأن التأثير الخوارزمي لتيك توك على الانتخابات الضوء على دور المنصة في التلاعب السياسي". على سبيل المثال، دَعَت السلطات الرومانية إلى تعليق "تيك توك" وسط شكوك في أن خوارزميته ضخمت المحتوى المؤيّد لمرشح رئاسي من اليمين المتطرّف مؤيد للكرملين.
كيف تتعايش الديمقراطية مع الذكاء الاصطناعي؟
ترى ورقة البرلمان الأوروبي أن الذكاء الاصطناعي يمكن أن يكون مفيداً للديمقراطيات إذا طُبّقت الضمانات المناسبة. على سبيل المثال، يمكن استخدام أدوات للكشف عن استخدام المحتوى الذي صنعه الذكاء الاصطناعي، ويمكن استخدام تقنيات مثل العلامات المائية للإشارة بوضوح إلى أن المحتوى مولَّد. وتذكر ورقة مؤسسة كارينغي بأن الاعتماد على القواعد التي تفرضها شركات التكنولوجيا العملاقة على نفسها غير كافٍ كما أظهر التاريخ في صناعات أخرى. ولهذا السبب، يجب على الحكومات سنّ سياسات قوية للتخفيف من إنشاء وانتشار مثل هذا المحتوى الاصطناعي ومحاسبة الشركات قانونياً ومالياً. وتلعب شركات التكنولوجيا دوراً مركزياً في تطوير أدوات الكشف عن الفبركة، وإبطاء تداول المحتوى المفبرك. هذا بالإضافة إلى محو الأمية حول التضليل وتعليم المهارات الرقمية للناس بشكل عاجل.