دراسة تظهر تحريف الأخبار من قبل تطبيقات الذكاء الاصطناعي
استمع إلى الملخص
- الدراسة، التي شملت تقييم أداء مساعدات الذكاء الاصطناعي في 14 لغة، كشفت أن ثلث الإجابات تحتوي على أخطاء جسيمة في المصادر، مع تباين في دقة التطبيقات مثل "جيميني" و"تشات جي بي تي".
- تزايد الاعتماد على مساعدي الذكاء الاصطناعي بدلاً من محركات البحث التقليدية قد يقوض ثقة الجمهور بالمعلومات، مما يستدعي تحسين الشفافية والدقة في استجابة المساعدين للاستفسارات الإخبارية.
أظهرَت دراسة جديدة نَشرتها اتحاد الإذاعات الأوروبية بالتعاون مع هيئة الإذاعة البريطانية (بي بي سي) اليوم الأربعاء، أن تطبيقات الذكاء الاصطناعي الرائدة تُحرّف محتوى الأخبار في نحو نصف ردودها تقريباً. وشمل البحث الدولي تحليل ثلاثة آلاف ردّ على أسئلة تتعلق بالأخبار قدّمتها مساعدات الذكاء الاصطناعي، وهي تطبيقات برمجية تستخدم تقنيات الذكاء الاصطناعي لفهم أوامر اللغة الطبيعية وتنفيذ المهام للمستخدمين.
وقيّمت الدراسة أداء هذه المساعدات في ما يصل إلى أربع عشرة لغة، من حيث الدقة والمصادر والقدرة على التمييز بين الرأي والحقيقة. ومن بين التطبيقات التي خضعت للتقييم: "تشات جي بي تي" (ChatGPT) و"كوبايلوت" (Copilot) و"جيميني" (Gemini) و"بربليكستي" (Perplexity). وأظهر البحث أن 45% من ردود الذكاء الاصطناعي التي جرى تحليلها احتوت على مشكلة كبرى واحدة على الأقل، فيما تضمّنت 81% منها شكلاً من أشكال الأخطاء أو الانحرافات عن الدقة.
وأجرت وكالة رويترز اتصالات مع الشركات المشغّلة لهذه التطبيقات للحصول على تعليقاتها حول النتائج. وكانت شركتا أوبن إيه آي ومايكروسوفت قد أكدتا في وقتٍ سابق أنهما تعملان على معالجة مشكلة "الهلوسة" في نماذج الذكاء الاصطناعي، وهي الظاهرة التي تولّد فيها النماذج معلومات غير صحيحة أو مضللة، غالباً بسبب نقص البيانات أو ضعف مصادرها. أما شركة بربليكستي، فتشير على موقعها الإلكتروني إلى أن أحد أنماط "البحث العميق" لديها يتمتع بدقّة 93.9% من حيث الواقعية.
أخطاء في المصادر
أوضحت الدراسة أن ثلث إجابات مساعدي الذكاء الاصطناعي احتوى على أخطاء جسيمة في المصادر، مثل الإسناد المفقود أو المضلل أو غير الصحيح. وبيّنت أن نحو 72% من ردود "جيميني"، المساعد التابع لشركة غوغل، شابتها مشكلات كبرى في المصادر، مقارنة بأقل من 25% لدى المساعدين الآخرين. كما أظهرت النتائج أن نحو 20% من الردود احتوت على مشكلات في الدقة، بما في ذلك تقديم معلومات قديمة. ومن الأمثلة التي ذكرتها الدراسة أنّ "جيميني" قدّم معلومات غير صحيحة حول تغييرات قانونية تتعلق بالسجائر الإلكترونية ذات الاستخدام الواحد، فيما أشار "تشات جي بي تي" إلى أن البابا فرنسيس هو البابا الحالي بعد أشهر من وفاته.
وشارك في إعداد الدراسة 22 مؤسسة إعلامية للخدمة العامة من 18 دولة، من بينها فرنسا وألمانيا وإسبانيا وأوكرانيا وبريطانيا والولايات المتحدة. ويرى اتحاد الإذاعات الأوروبية أن تزايد اعتماد المستخدمين على مساعدي الذكاء الاصطناعي بدلاً من محركات البحث التقليدية للأخبار قد يؤدي إلى تقويض ثقة الجمهور بالمعلومات. وأضاف جان فيليب دي تيندر، مدير الإعلام في الاتحاد، في بيانٍ رسمي: "عندما لا يعرف الناس ما الذي يمكنهم الوثوق به، ينتهي بهم الأمر إلى عدم الثقة في أي شيء على الإطلاق، وهذا يمكن أن يعرقل المشاركة الديمقراطية".
وأشار تقرير الأخبار الرقمية لعام 2025 الصادر عن معهد رويترز إلى أن نحو سبعة بالمائة من متصفحي الأخبار على الإنترنت، و15% من الفئة العمرية دون الخامسة والعشرين، يستخدمون مساعدي الذكاء الاصطناعي للحصول على الأخبار. وحثّ التقرير الجديد شركات الذكاء الاصطناعي على الخضوع للمساءلة وتحسين كيفية استجابة المساعدين للاستفسارات الإخبارية، لضمان الشفافية ودقّة المعلومات المقدَّمة للجمهور.
(رويترز)