استمع إلى الملخص
- شهدت الفترة الأخيرة أحداثاً مهمة مثل "قمّة عمل الذكاء الاصطناعي 2025" وتقارير تناولت استخداماته ومخاطره، مما يبرز النقاش حول توجيه هذه التكنولوجيا لخدمة الإنسانية أو استخدامها كأداة للهيمنة.
- يُحذّر الفيلسوف بيونغ تشول هان من تحويل العالم إلى بيانات، مما يهدد جوهر الوجود الإنساني، بينما أشار ستيفن هوكينغ إلى إمكانيات الذكاء الاصطناعي في الخلاص أو الخطر.
يتبدّى لي الذكاء الاصطناعيّ الآن كلوحةِ "أزهار النيلوفر" للفنان الانطباعي الفرنسي كلود مونيه، التي تتداخل فيها الألوان إلى حدّ الذَّوبان. فهذا الابتكار الذي لا مثيل له، هو تجسيد لقوّة تتقدّم أسرع من قدرتنا على فهمها واستيعابها. قوّة تقيم عند تخوم الواقع والمتخيَّل، العلم والفنّ، المعرفة والحدس؛ وتعمل بلا كَلَال على إلغاء الفواصل بينها.
شهدت الأسابيع والأشهر الأخيرة عدداً من الأحداث المهمّة التي تعكس مدى تأثير الذكاء الاصطناعي على العالم اليوم، منها، على سبيل المثال، "قمّة عمل الذكاء الاصطناعي 2025"، التي عُقدت في باريس بإشراف حكومي من دول عدّة، وبمشاركة واسعة من حكومات وباحثين ومجتمع مدني وقطاع خاص. وكانت هذه القمّة محطّة لإطلاق دعوات إلى "ذكاء اصطناعي شامل، ومستدام، وأخلاقي" على الصعيد العالمي، وأُعلنت خطط ضخمة لاستثمارات بمئات المليارات من اليورو في دعم الذكاء الاصطناعي.
هل يصبح الواقع شيئاً يمكن إعادة تأليفه باستمرار؟
في موازاة ذلك، صدرت تقارير عدّة، من أبرزها تقريران: الأوّل، "مؤشّر الذكاء الاصطناعي 2025"، وهو أحد أهمّ المصادر الإحصائية والدراسية حول الذكاء الاصطناعي عالميّاً. ولقد كشف عن مدى اتساع استخدام الذكاء الاصطناعي، وارتفاع دوره في الطبّ والاقتصاد والبحث العلمي والسياسات العامّة؛ والتقرير الثاني، وعنوانه "تقرير السلامة الدولي للذكاء الاصطناعي" الذي ركّز على مخاطر الذكاء الاصطناعي واستخدامه بطرق قد تؤدي إلى اختلالات هيكلية في مؤسّسات الدولة والمجتمع، أو اللجوء إليه بوصفه أداة للمراقبة والتجسّس والتلاعب بالمعلومات. وهذا ما يدلّ على أن النقاش الدائر حول الذكاء الاصطناعي اليوم لم يعد ينحصر في إمكانياته فحسب، بل في طريقة استعماله وتوجيهه، إمّا على نحو إنساني، وإما بطريقة تُجَرّده تماماً من الإنسانيّة. وهذا يعني أنّ الذكاء القادر على جعل المعرفة متاحة للجميع، ودفع الطبّ إلى آفاق لم يعرفها الإنسان من قبل، في استطاعته أيضاً أن يكون سيّد الحروب والخراب، وأن يتحوّل أداة هيمنةٍ تتجاوز كلّ ما عرفته البشرية من قبل.
مع تقدّم الذكاء الاصطناعي في محاكاة الوجوه والأصوات والحركات، بل في إنتاج "واقع" بديل يبدو أحياناً أكثر إتقاناً من الواقع، لم نعد أمام "خيال" يوازي العالم، بل أمام توءم رقمي يمكنه أن يحلّ محلّ العالم، وأن يخلق تاريخاً، وشخوصاً، وذكريات، وفيديوهات، واعترافات محتملة ومُقنَّعة. والسؤال: هل يصبح الواقع شيئاً يمكن إعادة تأليفه باستمرار؟ سؤال تستتبعه أسئلة أخرى منها: هل تتلاشى الفواصل بين الواقع والحلم، وهل يفقد الناس القدرة على الوثوق بحواسهم وبما يُقدَّم لهم من أطباق رقميّة جاهزة؟ قد لا يكون الخطر في ضياع الفاصل بين الواقع والخيال، فهذان كانا دائماً متداخلين في الوعي البشري، بل ممّن يحتكر القدرة على إنتاج هذا الخيال الجديد. فالخيال الفردي صحّي، مُثمر ومحرِّر. أمّا الخيال المُصنَّع، المُوجَّه، الذي يهدف إلى تشكيل الوعي الجمعيّ، فقد يتحوّل إلى أداة خطرة لم يختبرها الإنسان في تاريخه.
يتحوّل أداة هيمنةٍ تتجاوز كلّ ما عرفته البشرية من قبل
في المقابل، يمكن الإنسان أن يصبح مضافاً إذا عرف كيف يواكب هذا الذكاء، ويصل معه إلى مناطق جديدة من المعرفة، أبعد بكثير ممّا عرفناه حتى الآن. إنّه محصّلة التجربة البشريّة عبر العصور، ويترك أثره في جميع الحقول والميادين: سياسة، اقتصاد، صناعة، زراعة، تعليم، طبّ، ثقافة، إبداع. وهو بذلك لم يعد مجرّد أداة بل بنية معرفية جديدة داخل الحضارة الإنسانيّة. صحيح أنه ليس "وعياً" ولا "ذاتاً"، لكنه نموذج قادر على التعلّم المستمرّ، وفهم سياقات جديدة وأفكار جديدة. هكذا، يمكن أن يصبح أفضل ما ابتكره الإنسان لخدمة الإنسان، كما يمكن أن يتحوّل إلى الأخطر، إذا وقع في سوء الاستخدام. ولهذا يخشى بعض المفكرين والفلاسفة وعلماء الفيزياء أن تفلت الآلة من اليد التي صنعتها.
يرى الفيلسوف الكوري الألماني بيونغ تشول هان أنّ الذكاء الاصطناعي لا يهدّد الإنسان من خلال تفوّقه الحسابي، بل من خلال تحويل العالم إلى كمٍّ صافٍ من البيانات. فالآلة لا تعرف الغموض، ولا التردّد، ولا الجرح، وهي العناصر التي يعتقد هان أنّها جوهر الوجود الإنساني. لذلك، فإنّ الخطر الأكبر في رأيه هو انزلاق الإنسان إلى نمط حياة تُقاس فيها العلاقات والقرارات والرغبات وفقَ أرقام محدّدة. يخشى هان أن يختفي "السرّ" و"العمق" اللذان يصنعان الثقافة والخيال، ويحلّ محلّهما عالمٌ تهندسه خوارزميّات لا تعرف إلّا الكفاءة. في رأيه، يتطلّب الدفاع عن الإنسان اليوم ليس رفض التكنولوجيا، بل حماية الميل إلى الغموض، والبطء، والسؤال، واللايقين، "تلك المساحات التي لا يمكن للآلة أن تسكنها".
ويُجمع عدد متزايد من المفكّرين على أنّ الخطر الحقيقي في الذكاء الاصطناعي ليس أن يصبح أكثر شبهاً بالبشر، بل أن نقبل نحن أن نصبح أكثر شبهاً بالآلات. إنّنا نخاف من وعيٍ صناعيّ يخرج عن السيطرة، بينما نتجاهل كيف تتسرّب خوارزميّاته بهدوء إلى أحلامنا ورغباتنا وتخيّلاتنا. المسألة ليست سباقاً بين عقلين، بل صراعٌ على من يكتب سيناريو الواقع. وينطوي ذلك على نقد الأدلجة الخفيّة التي تنشرها التكنولوجيا في البنية النفسية والاجتماعية، أكثر من المخاوف التقنية المباشرة.
في العام 2014، لاحظ عالم الفيزياء البريطاني ستيفن هوكينغ أنّ الذكاء الاصطناعي مفتوح على احتمالين: الخلاص أو الخطر. الخلاص في قدرته على القضاء على الأمراض والفقر، والخطر إذا ما تحوّل سلاحاً في أيدي المتحاربين، وهو ما يهدّد وجود الجنس البشري. ويضيف: "أعتقد أنّ تطوير الذكاء الاصطناعي الكامل يمكن أن ينهي البشريّة؛ فبمجرّد أن يطوّر البشر الذكاء الاصطناعي، ينطلق هذا الذكاء من تلقاء نفسه، ويعيد تعريف نفسه أكثر فأكثر، بسرعة متزايدة. عندئذٍ، لا يعود بإمكان البشر، بسبب تطوّرهم البيولوجي البطيء، أن ينافسوه، وسوف يُسحقون".
كم يبدو هذا الكلام صحيحاً اليوم، بعد مرور عقدٍ على إطلاقه، وهذا ما يضع العالم أمام خطرين متقابلين: خطر الآلة حين تنفلت من حدود دورها وتتحوّل إلى قوّة قائمة بذاتها، وخطر الإنسان حين يستدعي الحرب مستنداً إلى ما وفّرته العلوم والتكنولوجيا من قدرات مدمّرة. وفي تلك اللحظة، يتراجع، دفعةً واحدة، إلى أعماق الأزمنة الأولى، كأنّه يهبط من جديد إلى مغاور ما قبل التاريخ.
* كاتب لبناني مقيم في باريس