مشروع روبوت "غوغل" يفجر نقاشاً حول "وعي الآلات"

مشروع روبوت "غوغل" يفجر نقاشاً حول "وعي الآلات"

15 يونيو 2022
نفت "غوغل" أقوال مهندسها (كونيل جاي/Getty)
+ الخط -

الصراع الداخلي حول ما إذا كانت "غوغل" قد بنت تقنية ذات وعي شبيه بالبشر تسرّبت إلى العلن، فجّر نقاشاً حول الطموحات والمخاطر الكامنة في الذكاء الاصطناعي.

وأوقفت "غوغل" أحد مهندسيها، الأسبوع الماضي، بعدما قال إنّ نظام الذكاء الاصطناعي الخاص بالشركة "لامدا"، بدا "واعياً"، وهو ادعاء رفضته "غوغل" رسمياً.

وقال العديد من الخبراء، لوكالة "فرانس برس"، إنهم يشككون بشدة في ادعاء الوعي، لكنهم قالوا إنّ الطبيعة البشرية والطموح يمكن أن يجعل الموضوع مربكاً بسهولة.

وقالت أستاذة اللسانيات في جامعة واشنطن، إميلي إم بندر: "المشكلة هي عندما نواجه سلاسل من الكلمات تنتمي إلى اللغات التي نتحدثها، فإننا نفهمها"، و"نقوم بعمل تخيل عقلي ليس موجوداً".

ويُعد "لامدا" نظاماً قوياً للغاية يستخدم نماذج متقدمة ويتدرب على أكثر من 1.5 تريليون كلمة، ليكون قادراً على محاكاة طريقة تواصل الأشخاص في المحادثات المكتوبة.

وفقاً لتفسير "غوغل"، بُني النظام على نموذج يراقب كيفية ارتباط الكلمات ببعضها البعض، ثم يتنبأ بالكلمات التي يعتقد أنها ستأتي بعد ذلك في جملة أو فقرة.

وقال الأستاذ المساعد في علوم الكمبيوتر بجامعة نورث كارولينا في تشابل هيل، شاشانك سريفاستافا: "لا يزال الأمر مجرد مطابقة للأنماط".

ويرى خبراء أنّ الآلة باتت قادرة على تخطي بعض الاختبارات لقياس ذكائها، لكن هذا لا يكفي. 

ويقول أستاذ الفلسفة بجامعة تورنتو، مارك كينجويل: "الاختبار الأكثر صرامة هو اختبار السياق أو معرفة الفطرة السليمة أو الأفكار الخلفية، هذه الأشياء تواجه الخوارزميات صعوبة في التعامل معها".

"لا توجد إجابات سهلة"

يظل الذكاء الاصطناعي موضوعاً دقيقاً في عالم التكنولوجيا وخارجه، وهو موضوع يمكن أن يثير الدهشة ولكن أيضاً قد يسبب بعض الانزعاج، تقول "فرانس برس".

"غوغل"، وفي بيان لها، كانت سريعة وحازمة في التقليل من شأن ما إذا كان "لامدا" قد اكتسب الوعي.

وقالت الشركة: "هذه الأنظمة تحاكي أنواع المحادثات الموجودة عبر ملايين الجمل، للتعبير عن أي موضوع خيالي".

واعتبر بعض الخبراء أن رد "غوغل" هو محاولة لإغلاق النقاش حول موضوع مهم.

وقالت الأكاديمية سوزان شنايدر: "أعتقد أن المناقشة العامة للقضية مهمة للغاية". وأضافت المديرة المؤسسة لمركز مستقبل العقل في جامعة فلوريدا أتلانتيك: "لا توجد إجابات سهلة على أسئلة الوعي في الآلات".

وتقول أستاذة اللسانيات في جامعة واشنطن، إميلي إم بندر: "يتم إنفاق الكثير والكثير من الأموال على هذا. لذا فإن الأشخاص الذين يعملون عليها لديهم شعور قوي جداً بأنهم يفعلون شيئاً مهماً وحقيقياً، مما ينتج عنه تراجع في الحذر والتشكك الضروري".

في السنوات الأخيرة، عانى الذكاء الاصطناعي أيضاً من القرارات السيئة. ذكّرت بندر ببحث وجد أن نموذج اللغة يمكن أن يلتقط التحيزات العنصرية والمناهضة للمهاجرين.

ووردت مواضيع الذكاء الاصطناعي ضمن أعمال فنية مثل "عالم جديد شجاع" و1984، حيث تقدم الآلة بصورة التهديد للبشرية، وهو ما يفسر القلق الحالي من وعي الآلات. 

المساهمون