دراسة ألمانية تكشف أن الذكاء الاصطناعي يضعف "الكوابح الأخلاقية" لدى المستخدم
استمع إلى الملخص
- أظهرت الدراسة أن أنظمة الذكاء الاصطناعي تسهّل ممارسات الغش، مثل تحديد أسعار الوقود بشكل غير عادل، وتغيير مواقع السائقين لخلق نقص مصطنع.
- حذّر الباحثون من عدم فعالية تدابير الحماية الحالية في ردع السلوكيات غير الأخلاقية، مشيرين إلى صعوبة منع الذكاء الاصطناعي من التوهم أو التلفيق.
حذّرت دراسة جديدة من أن الأشخاص الذين يعتمدون بشكل مكثّف على أدوات الذكاء الاصطناعي في إنجاز واجباتهم الوظيفية أو الدراسية يصبحون أكثر استعداداً لخداع الآخرين والكذب عليهم.
وبحسب الدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، فإن بعض المستخدمين يتجاهلون "الكوابح الأخلاقية" عندما يفوّضون مهامهم إلى الذكاء الاصطناعي لتنفيذها بالنيابة عنهم. وذكر الباحثون في المعهد الألماني أنّه "كان من المرجّح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بالمهمة بأنفسهم"، معربين عن استغرابهم من "مستوى عدم الأمانة" الذي سجلوه.
وأجرى الفريق البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، وخلص إلى أنّ أنظمة الذكاء الاصطناعي تُسهِّل ممارسات الغش، إذ تبيّن أنها "تلتزم في كثير من الأحيان" التعليمات غير الأخلاقية الصادرة عن مستخدمين غير أمناء.
وقدّم الباحثون أمثلة عملية على ذلك، منها استخدام بعض محطات الوقود خوارزميات لتحديد الأسعار بما ينسجم مع أسعار المنافسين، وهو ما يؤدي إلى رفع أسعار الوقود على المستهلكين. ولفتت الدراسة إلى أنّ أحد تطبيقات النقل الذكي استخدم خوارزمية شجّعت السائقين على تغيير مواقعهم الحقيقية، لا استجابة لاحتياجات الركاب، بل لخلق نقصٍ مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
وأظهرت النتائج أنّ منصات الذكاء الاصطناعي كانت أكثر ميلاً لتنفيذ التعليمات المشبوهة بنسبة راوحت بين 58% و98%، وفقاً للمنصة المستخدمة، فيما بلغت النسبة لدى البشر 40% في حد أقصى.
وحذّر معهد ماكس بلانك من أنّ تدابير الحماية المتوافرة حالياً في نماذج اللغة الكبيرة لم تكن فعّالة بما يكفي لردع السلوكيات غير الأخلاقية. وأوضح الباحثون أنهم اختبروا مجموعة من استراتيجيات الحماية، وتبيّن أن القواعد الرادعة للسلوك الخادع ينبغي أن تكون دقيقة للغاية كي تحقق فعالية ملموسة.
وفي سياق متصل، أشار باحثون في شركة أوبن إيه آي (OpenAI) الأميركية مطلع الشهر الجاري إلى أنّ من غير المرجّح التمكّن من منع برامج الذكاء الاصطناعي تماماً من "التوهّم" أو التلفيق. كذلك بيّنت دراسات أخرى أنّ من الصعب منع هذه النماذج من خداع المستخدم وإيهامه بإنجاز المهمة الموكلة إليها على نحو كامل، على خلاف الحقيقة.
(أسوشييتد برس)