لماذا يثير الذكاء الاصطناعي كل هذا القلق؟

لماذا يثير الذكاء الاصطناعي كل هذا القلق؟

06 مايو 2023
الباحث في مجال الذكاء الاصطناعي يوشوا بنجو (تشاد بيوكانن/Getty)
+ الخط -

في أواخر مارس/ آذار الماضي، وقّع أكثر من ألف من القادة والخبراء في قطاع التكنولوجيا رسالة مفتوحة، حذروا فيها من الأخطار الذي يشكلها الذكاء الاصطناعي على المجتمع والإنسانية. مجموعة الموقعين التي ضمت الرئيس التنفيذي لشركة تِسلا ومالك منصة تويتر إيلون ماسك حثت المختبرات على تعليق تطوير أنظمة الذكاء الاصطناعي الجديدة ذات القوة لستة أشهر، إلى أن يتمكنوا من فهم أخطار هذه التقنية بشكل أفضل. وأكدت الرسالة على وجوب تطوير الذكاء الاصطناعي "إذا ما كنا واثقين من أنّ آثار هذا التطوير ستكون إيجابية، وأنها ستكون خاضعة للسيطرة والتحكم في أخطارها"، وهو ما رأوا أنه غير متوفر في الوقت الراهن، "فلا أحد يستطيع التنبؤ أو التحكم بشكل موثوق بهذا الذكاء الاصطناعي".

هذه الرسالة تضم الآن 27 ألف توقيع. لكنها كانت مختصرة وفضفاضة، وبعض من وقعوا عليها يبدو أن لديهم علاقات متضاربة في مجال الذكاء الاصطناعي، فإيلون ماسك، مثلاً، يؤسس أداته الخاصة بهذه التقنية، وهو واحد من المتبرعين الرئيسيين لمعهد فيوتشر أوف لايف Future of Life الذي أعد الرسالة.

لكن الرسالة أثارت قلق الخبراء في مجال الذكاء الاصطناعي، وتحديداً إزاء نظام "جي بي تي-4" الذي أطلقته شركة أوبن إيه آي الناشئة، لما قد يسببه من ضرر على المجتمع. بعض المخاوف نعيشه اليوم، والبعض الآخر لن نشهده قبل شهور أو سنوات، بينما تبقى مخاوف أخرى افتراضية. وفي هذا السياق، قال البروفيسور والباحث في مجال الذكاء الاصطناعي في جامعة مونتريال يوشوا بنجو، لصحيفة نيويورك تايمز: "قدرتنا على فهم الأخطاء التي قد تحصل بسبب أنظمة الذكاء الاصطناعي فائقة القوة لا تزال ضعيفة، ولذلك علينا أن نكون شديدي الحذر".

ما الذي يثير المخاوف فعلاً؟

قد يكون يوشوا بنجو أهم الأشخاص الذين وقعوا على الرسالة المذكورة. عمل بنجو مع أكاديميين آخرين، هما جيفري هينتون الذي استقال أخيراً من شركة غوغل، ويان ليكون المسؤول عن علماء الذكاء الاصطناعي في شركة ميتا المالكة لـ"فيسبوك".

جيفري هينتون، الذي يلقب بـ"عرّاب الذكاء الاصطناعي"، ترك وظيفته في "غوغل" للتنديد علناً بمخاطر هذه التكنولوجيا. وقال لصحيفة نيويورك تايمز إنّ التقدم المحرز في هذا المجال يحمل في طياته "أخطاراً عميقة على المجتمع والإنسانية". ونقلت الصحيفة عنه، الاثنين الماضي، قوله: "انظروا كيف كان الأمر قبل خمس سنوات، وكيف هو الآن... تخيلوا كيف ستتقدم الأمور قياساً إلى هذا الفارق. إنه أمر مخيف". وأعرب هينتون، في تصريحاته للصحيفة، عن اعتقاده بأنّ هذه الأنظمة تتفوق على الذكاء البشري من بعض النواحي بسبب كمية البيانات التي تحلّلها. وقال: "قد يكون ما يحدث في هذه الأنظمة في الواقع أفضل بكثير مما يحدث في الدماغ".

أمضى الثلاثة العقود الأربعة الماضية في تطوير التكنولوجيا التي تقود أنظمة مثل "جي بي تي-4". عام 2018، حصل الباحثون الثلاثة على جائزة تورينغ التي تُعرف غالباً باسم "جائزة نوبل للحوسبة"، تقديراً لعملهم على الشبكات العصبية.

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. منذ نحو خمس سنوات، بدأت شركات مثل غوغل ومايكروسوفت وأوبن إيه آي ببناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية تسمى نماذج اللغات الكبيرة أو L.L.M.s. من خلال تحديد الأنماط في نص ما، تتعلم LLMs إنشاء نص بمفردها، بما في ذلك المدونات والقصائد وبرامج الكمبيوتر. يمكنها حتى إجراء محادثة. يمكن أن تساعد هذه التقنية مبرمجي الكمبيوتر والكتّاب وغيرهم في توليد الأفكار والقيام بالوظائف بسرعة أكبر.

لكن بنجو وخبراء آخرين حذروا من أنها يمكنها أيضاً تعلم السلوكيات غير المرغوب فيها وغير المتوقعة. إذ يمكن أن تولد هذه الأنظمة معلومات غير صادقة ومتحيزة وغير ذلك من المواد السامة. أنظمة مثل "جي بي تي-4" تخطئ في الحقائق وتفبرك معلومات، وهي ظاهرة تسمى "الهلوسة". تعمل الشركات على حل هذه المشكلات. لكن الخبراء، مثل بنجو، قلقون من الأخطار الجديدة التي يثيرها تطور هذه التقنيات.

الأخطار قصيرة المدى: المعلومات المضللة

لأن هذه الأنظمة تقدم المعلومات بثقة تامة، فقد يكون من الصعب فصل الحقيقة عن الخيال عند استخدامها. يشعر الخبراء بالقلق من أن الأشخاص سيعتمدون على هذه الأنظمة للحصول على المشورة الطبية والدعم العاطفي والمعلومات الخام التي يعتمدون عليها في اتخاذ القرارات. كما يشعر الخبراء بالقلق من أن الأشخاص سيسيئون استخدام هذه الأنظمة لنشر معلومات مضللة عمداً. وقال بنجو لـ"نيويورك تايمز": "لدينا الآن أنظمة يمكنها التفاعل معنا من خلال اللغة الطبيعية، ولا يمكننا التمييز بين الحقيقي والمزيف".

تكنولوجيا
التحديثات الحية

الأخطار متوسطة المدى: خسارة الوظائف

يتخوف الخبراء من أن أنظمة الذكاء الاصطناعي الجديدة قد تسلب الوظائف من أصحابها. حتى الآن، يبدو عمل أنظمة مثل "جي بي تي-4" مكملاً لعمل الموظفين البشر. لكن شركة أوبن إيه آي أقرت بأن هذه الأنظمة يمكنها أن تحل محل بعض الموظفين، وبينهم المشرفون على المحتوى الذي ينشر على شبكة الإنترنت. لا يمكنها إلى الآن أن تحل محل المحامين أو المحاسبين أو الأطباء. لكن يمكنها الحصول على وظائف المساعدين القانونيين والمساعدين الشخصيين والمترجمين. قدرت ورقة بحثية كتبها باحثو أوبن إيه آي أن 80 في المائة من قوة العمل في الولايات المتحدة يمكن أن تتأثر 10 في المائة على الأقل من مهام عملها بـLLMs، وأن 19 في المائة من العمال قد يرون أن 50 في المائة على الأقل من مهامهم قد تأثرت.

الأخطار بعيدة المدى: فقدان القدرة على السيطرة

يعتقد بعض الأشخاص الذين وقعوا الرسالة أن الذكاء الاصطناعي يمكن أن يصبح خارج سيطرتنا أو يدمر البشرية. لكن العديد من الخبراء يقولون إن هذا توقع مبالغ فيه للغاية. الرسالة كتبتها مجموعة من معهد فيوتشر أوف لاف الذي يكرس عمله لاستكشاف الأخطار الوجودية التي تتهدد الإنسانية. وتحذيرهم نابع من واقع أن أنظمة الذكاء الاصطناعي غالباً ما تتعلم سلوكاً غير متوقع من الكمية الهائلة من البيانات التي تحللها، ما قد يثير مشكلات جدية وغير متوقعة. ولفتوا إلى أن هذه الأنظمة قد تحصل على نفوذ لم نفكر فيه، لأن بإمكانها كتابة برمجيات الكمبيوتر بنفسها. وقالوا إن المطورين سيثيرون تهديدات جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي فائقة القوة بتشغيل برمجياتها بنفسها.

مسؤولية "أخلاقية"؟

نبّه البيت الأبيض الرؤساء التنفيذيين لشركات التكنولوجيا الأميركية العملاقة إلى مسؤوليتهم "الأخلاقية" لحماية المستخدمين من المخاطر الاجتماعية المحتملة للذكاء الاصطناعي. وكانت نائبة الرئيس الأميركي كامالا هاريس قد دعت رؤساء شركات غوغل ومايكروسوف وأوبن إيه آي وأنثروبيكا لاجتماع، الخميس، ونقلت إليهم قلق إدارة الرئيس جو بايدن من تسابق هذه الشركات نحو تطوير تكنولوجيا قد تؤدي الى أضرار خطرة على المجتمع. وقالت هاريس في بيان: "كما تشاركت اليوم مع الرؤساء التنفيذيين لشركات هي في طليعة الابتكار الأميركي في مجال الذكاء الاصطناعي، للقطاع الخاص مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاته".

المساهمون