ذكرت صحيفة وول ستريت جورنال اليوم السبت، نقلاً عن مصادر مطّلعة، أن الجيش الأميركي استخدم أداة الذكاء الاصطناعي "كلود" التابعة لشركة أنثروبيك خلال عملية خطف الرئيس الفنزويلي السابق نيكولاس مادورو في يناير/كانون الثاني الماضي. وفي موازاة ذلك، نقل موقع أكسيوس عن مصدرين مطّلعين أن الجيش استعان بالنموذج نفسه في العملية، ما أثار تساؤلات حساسة حول حدود استخدام الذكاء الاصطناعي في العمليات العسكرية ومستقبل علاقة الشركة بالبنتاغون.
وبحسب "أكسيوس"، فإن تداعيات هذا الكشف قد تمتد إلى شراكة "أنثروبيك" مع وزارة الدفاع الأميركية. إذ نقل الموقع عن مسؤول رفيع في الإدارة الأميركية أن البنتاغون يتجه إلى إعادة تقييم شراكته مع "أنثروبيك" بعد الضجة التي أثارتها المعلومات المتعلقة باستخدام "كلود" في العملية. ووفق رواية المسؤول، فإن "أنثروبيك" استفسرت عمّا إذا كان برنامجها قد استُخدم في العملية التي استهدفت القبض على مادورو، الأمر الذي أثار قلقاً داخل وزارة الدفاع لأنه يوحي، بحسب تعبيره، بأن الشركة ربما لم تكن لتوافق على ذلك لو تأكدت من طبيعة الاستخدام. وأضاف المسؤول: "أي شركة قد تُعرّض نجاح عمليات قواتنا في الميدان للخطر، يجب علينا إعادة تقييم شراكتنا معها مستقبلاً".
وتُبرز هذه الواقعة التوتر الذي تعيشه مختبرات الذكاء الاصطناعي الكبرى وهي توسّع أعمالها مع المؤسسات العسكرية، وفي الوقت نفسه تحاول الحفاظ على قيودٍ واضحة تمنع بعض الاستخدامات التي تراها شديدة الحساسية، سواء لأسباب أخلاقية أو قانونية أو مرتبطة بالسمعة العامة للشركة.
نماذج الذكاء الاصطناعي تمنح المستخدمين قدرة على معالجة البيانات بسرعة وفي الوقت الفعلي، وهي ميزة يثمّنها البنتاغون في البيئات العملياتية الفوضوية والمتبدّلة التي ترافق كثيراً من المهام العسكرية.
وأشار "أكسيوس" إلى أن الجيش الأميركي استخدم النموذج في السابق لتحليل صور أقمار صناعية أو مواد استخبارية، بينما أكد المصدران أن استخدام "كلود" جرى خلال العملية النشطة نفسها، لا في مرحلة التحضيرات فقط. ولفتت تقارير سابقة إلى أن أي أميركي لم يُقتل خلال عملية خطف مادورو، في حين أعلنت كوبا وفنزويلا مقتل العشرات من جنودهما وعناصر أمنهما.
وفي خلفية هذا السجال، يضغط البنتاغون باتجاه مساحة استخدام أوسع تسمح له بتوظيف نماذج الذكاء الاصطناعي في أي سيناريو طالما جرى الالتزام بالقانون، وهو ما يصطدم برغبة بعض الشركات في فرض قيودٍ إضافية تتجاوز الحد الأدنى القانوني. وتُقدّم "أنثروبيك" نفسها، على نحوٍ خاص، بوصفها من الشركات التي تتبنى نهج "السلامة أولاً" في الذكاء الاصطناعي، وهي تتفاوض حالياً مع وزارة الدفاع حول شروط الاستخدام. وتركّز الشركة، بحسب ما أورد التقرير، على ضمان ألّا تُستخدم تقنيتها في "المراقبة الجماعية" للأميركيين أو لتشغيل أسلحة ذاتية التشغيل بالكامل. وفي المقابل، تحدث مصدر مطّلع على المحادثات لـ"أكسيوس" أن الشركة واثقة من التزام الجيش بسياسة الاستخدام المعتمدة حتى الآن في جميع الحالات، وهي سياسة تتضمن قيوداً إضافية على الاستخدام.
ونقل الموقع عن متحدث باسم الشركة أن "أنثروبيك" لا تستطيع التعليق على ما إذا كان "كلود"، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدم في "أي عملية محددة، سرّية أم غير ذلك". وأضاف أن أي استخدام لـ"كلود"، سواء في القطاع الخاص أو عبر الحكومة، يجب أن يلتزم بسياسات الاستخدام الخاصة بالشركة، وأنها تعمل "عن كثب" مع الشركاء لضمان الامتثال.
وتأتي هذه التطورات بينما يدفع وزير الدفاع الأميركي بيت هيغسيث باتجاه دمج الذكاء الاصطناعي بسرعة في مختلف جوانب العمل العسكري، في إطار مساعٍ لتسريع التحديث والحفاظ على تفوقٍ تقني في مواجهة الصين.
وفي الصورة الأوسع، فإن "أنثروبيك" ليست وحدها في هذا المسار، إذ تعمل عدة شركات مطوّرة للنماذج مع البنتاغون بصيغ مختلفة. كما أبرمت "أوبن إيه آي" و"غوغل" و"إكس إيه آي" اتفاقيات تتيح لمستخدمين عسكريين الوصول إلى نماذجها من دون كثير من الضوابط التي تُطبّق عادةً على المستخدمين العاديين، فيما ظل غير واضح ما إذا كانت نماذج أخرى قد استُخدمت خلال العملية المتعلقة بفنزويلا.