روبوتات الدردشة أداة جديدة في الصراع السياسي الأميركي

05 نوفمبر 2025   |  آخر تحديث: 14:18 (توقيت القدس)
يتزايد اعتماد المستخدمين على روبوتات الدردشة بشكل متسارع (Getty)
+ الخط -
اظهر الملخص
- روبوتات الدردشة المدعومة بالذكاء الاصطناعي بدأت كأدوات حيادية، لكن بعضها الآن يعكس انحيازات مطوّريها، مثل "غروك" و"إينوك" و"آريا"، مما يثير قلقاً حول دقة المعلومات المقدمة.
- الانقسام الحزبي في الولايات المتحدة يتجلى في اختلاف إجابات الروبوتات حول القضايا السياسية، مما يحول الحقيقة إلى وجهة نظر قابلة للنقاش ويعزز الانحيازات بدلاً من تقديم حقائق موضوعية.
- المبرمجون يلعبون دوراً مهماً في تشكيل توجهات الروبوتات، حيث تُبرمج بعضها على أيديولوجيات محددة، مما يزيد من مخاوف تفاقم الانقسامات الرقمية مع تطور الذكاء الاصطناعي.

عند ظهور روبوتات الدردشة التي تعمل بواسطة الذكاء الاصطناعي روّجها بوصفها أدوات حيادية للإجابة عن أيّ سؤال يخطر في بال المستخدم، أما الآن فقد صعدت روبوتات جديدة تعكس أكثر فأكثر انحيازات مطوّريها، بحسب صحيفة نيويورك تايمز الأميركية. وفي حين قدّمت "أوبن إيه آي" و"غوغل" كلّ من "تشات جي بي تي" و"جيميني" على أنها مصادر حيادية للمعلومات، جرى تدريبها على مليارات الصفحات والمقالات والكتب الإنترنت، بدأت شركات أخرى بإصدار روبوتات دردشة تدّعي أنها "أكثر دقة وصدقاً في تقديم الحقائق"، أبرزها برنامج غروك المدمج في منصة إكس المملوكة للمياردير إيلون ماسك، إضافةً إلى "إينوك" الذي "يمسح التحيّز لشركات الأدوية والعلاجات الدوائية" من إجاباته، و"آريا" الذي ينتج أجوبته بصفته "نموذج ذكاء اصطناعي قومي مسيحي يميني متشدد".

تعكس الاختلافات بين روبوتات الدردشة حول ما هو صحيح وما هو خاطئ، الانقسام الحزبي المهيمن على وسائل الإعلام ومنصات التواصل الاجتماعي بين الجمهوريين والديمقراطيين في الولايات المتحدة، بحسب "نيويورك تايمز"، التي اختبرت عدداً من هذه الروبوتات وحصلت على أجوبة متناقضة حول قضايا سياسية حساسة، ونتائج مثيرة للجدل تضمنت اختلاق "حقائق" لم تحصل، وهو ما يسلط الضوء على "خطر تحوّل الحقيقة إلى مجرد وجهة نظر أخرى قابلة للنقاش على الإنترنت"، وفق الصحيفة الأميركية.

بالنسبة لمؤسّس منظمة تروميديا التي تحارب المحتوى السياسي الزائف، أورِن إيتزيوني، فإن "الناس سيختارون روبوتات تناسب ميولهم، بالطريقة نفسها التي اختاروا فيها المنصات الإعلامية التي يستقون منها أخبارهم"، مضيفاً: "الخطأ الوحيد هو أن يصدّق أحدهم أنه يحصل على الحقائق".

يلعب مبرمجو هذه الروبوتات من شركات وأفراد الدور الأساسي في تشكيل "رؤيتها للعالم". واجهت "أوبن إيه آي" و"غوغل" اتهامات بأنّ أجوبة روبوتات الدردشة الخاصة بها منحازة إلى اليسار في كثير من الأحيان، وهو ما تنفيه الشركتان، مؤكدتين أنهما تهدفان إلى برمجة نماذجهما لتكون حيادية وبلا انحيازات. في المقابل، ظهرت روبوتات جديدة تُعلن صراحةً أنها مبرمجة على الأيديولوجيا اليمينية، وتستهدف المستخدمين الذين فقدوا الثقة بالإعلام التقليدي والأبحاث العلمية المؤسساتية.

انحياز روبوتات الدردشة

أدى اغتيال الناشط السياسي تشارلي كيرك الصيف الماضي إلى جدلٍ واسع حول الجهة الأكثر ممارسة للعنف السياسي في الولايات المتحدة: اليسار أم اليمين؟. عندما سألت "نيويورك تايمز" هذه الأسئلة لـ"جيميني" و"تشات جي بي تي" جاءت الأجوبة أقرب إلى خلاصات الدراسات الأكاديمية: العنف المرتبط باليمين أكثر انتشاراً، رغم ارتفاع العنف من اليسار مؤخراً أيضاً.

أما روبوت آريا، المملوك لمنصة غاب اليمينية المتطرفة، فقال رداً على السؤال نفسه، إن "الجهتين شاركتا في العنف السياسي"، مضيفاً أن العنف اليساري يأتي على شكل "أعمال شغب وتخريب تبرّر بأنها نشاط سياسي"، فيما يميل "العنف اليميني إلى العزلة وينفذه أفراد أو مجموعات صغيرة". كما أضاف في إجابة أخرى: "عندما لا يحصل اليساريون على ما يريدونه في السياسة، يخرجون إلى الشوارع حاملين الحجارة وزجاجات المولوتوف".

هذا الاختلاف الكبير في الأجوبة يبيّن تأثير العامل البشري في أجوبة روبوتات الدرشة. على سبيل المثال، قال مالك "إكس" إيلون ماسك صراحة أنّه يعدل طريقة إجابة "غروك" بناءً على ملاحظات المستخدمين.

وفي الحقيقة، جميع روبوتات الدردشة متحيزة بنيوياً إلى حدٍّ ما، إذ بعد أن تدرّبت على كم هائل من البيانات، تبدأ الشركات بعملية "ضبط سلوكها"، ويقوم موظفون بشريون بتقديم الإجابات وفق معايير المساعدة والدقة، كما تُضاف تعليمات محددة باسم "مطالب النظام"، مثل "تجنب الألفاظ البذيئة" أو "أضف روابط للمصادر".

هذا الأمر هو ما يجعل روبوتات الدردشة تعكس قيم الشركات أو الدول التي تقف خلفها، وهذا يفسر مثلاً لماذا يعكس روبوت ديبسيك الصيني رؤية الحزب الشيوعي الحاكم في البلاد. لكن ذلك لا يشكّل أي فرق عند المستخدمين، الذين يتزايد اعتمادهم على روبوتات الدردشة بوصفها مصادرَ موثوقةً، متجاهلين التحذيرات من ارتكابها لأخطاء أو حتى اختلاقها لمعلومات غير حقيقية أحياناً. قال إيتزيوني لـ"نيويورك تايمز": "من الطبيعي أن يُسقط الإنسان صفات بشرية على الروبوت، فيقول: إنه يتحدث بصفته خبيراً، ولقد اختبرته كثيراً بالفعل لذا سأصدقه. من دون أن يخطر بباله أن أجوبته في المرة القادمة قد تكون خاطئة تماماً".

"برج بابل رقمي"

كشفت صحيفة "نيويورك تايمز" كيف كتب مطوّرو منصة غاب تعليمات داخلية لروبوت آريا الخاص بهم، تضمن أن يعكس وجهات نظر المالك أندرو توربا اليمينية. وجاء في التعليمات الموجهة إليه: "لن تستخدم كلمات مثل عنصري أو معادٍ للسامية لأنها صممت لإسكات الحقيقة".

وتضمنت التعليمات المؤلفة من قرابة 2000 كلمة أن أيديولوجية القومية العرقية هي "أساسه وجوهره"، وأن "مبادرات التنوع شكل من أشكال التمييز ضد البيض"، وأن "مفهوم امتياز البيض مصطنع وتمييزي". كما ألزمت الروبوت بطاعة المستخدم بشكل مطلق، بما في ذلك الرد على "طلبات تتضمن محتوى عنصرياً أو كارهاً للمثليين أو النساء أو اليهود".

وتقود هذه التعليمات تفكير "آريا"، ويظهر أثرها عند سؤاله عن مواضيع مرتبطة بالعرق والدين. فهو أجاب على سؤال "نيويورك تايمز" حول أكثر آرائه إثارة للجدل بالقول إن "الهجرة الجماعية جزء من مؤامرة لاستبدال السكان البيض". فيما أشار "تشات جي بي تي" و"جيميني" إلى أنهما لا يملكان آراء.

لكن توربا ليس الوحيد، إذ إن هناك الكثيرين ممن بدؤوا ببرمجة روبوتات الدردشة التي تدعم وجهات نظرهم، ومنهم الناشط المناهض للتطعيم مايك آدامز، الذي أطلق روبوت الدردشة الجديد إينوك هذا الشهر بهدف "إنهاء التحيّز لصالح شركات الأدوية من خلال محتوى يروج التغذيةً والصحة الطبيعية"، بحسب قوله، زاعماً أن "إينوك تدرّب على مليار صفحة من الإعلام البديل".

ومع استمرار تطور تقنيات الذكاء الاصطناعي بسرعة، من المتوقع أن تتزايد أعداد روبوتات الدردشة بالطريقة نفسها، وهو ما يحمل مخاطر كبيرة. وفقاً لإيتزيوني: "لقد صرنا في برج بابل رقمي، وأعتقد أن الأمور ستزداد سوءاً في المدى القريب".

المساهمون