البيت الأبيض يتبنى قواعد جديدة لتنظيم أدوات الذكاء الاصطناعي

البيت الأبيض يتبنى قواعد جديدة لتنظيم أدوات الذكاء الاصطناعي

28 مارس 2024
قامت نائبة الرئيس الأميركي كامالا هاريس بالإعلان عن القواعد الجديدة (براندون بيل / Getty)
+ الخط -
اظهر الملخص
- كامالا هاريس تعلن عن قواعد جديدة تطلب من الوكالات الفيدرالية الأمريكية إثبات أمان أدوات الذكاء الاصطناعي التي تستخدمها أو التوقف عن استخدامها لحماية الجمهور.
- القواعد الجديدة، التي تأتي ضمن الأمر التنفيذي الشامل للذكاء الاصطناعي الذي وقعه الرئيس جو بايدن، تستهدف ضمان عدم تعريض حقوق وسلامة الشعب الأمريكي للخطر.
- الوكالات مطالبة بتقديم ضمانات ملموسة بحلول ديسمبر المقبل لأدوات الذكاء الاصطناعي المستخدمة في مجالات مثل التعرف على الوجه بالمطارات والتحكم في الشبكة الكهربائية والرهون العقارية.

قالت نائبة الرئيس الأميركي كامالا هاريس، إنه يتعين على الوكالات الفيدرالية الأميركية إثبات أن أدوات الذكاء الاصطناعي الخاصة بها لا تضر الجمهور أو تتوقف عن استخدامها، بموجب القواعد الجديدة التي كشف عنها البيت الأبيض اليوم الخميس.

وأضافت هاريس للصحافيين قبل الإعلان عن القواعد الجديدة: "تستخدم الوكالات الحكومية أدوات الذكاء الاصطناعي، سنطلب منها الآن التحقق من أن هذه الأدوات لا تعرض حقوق الشعب الأميركي وسلامته للخطر".

بموجب القواعد، يجب أن تكون لدى كل وكالة بحلول ديسمبر/ كانون الأول المقبل مجموعة من الضمانات الملموسة التي توجه كل شيء بدءا من فحوصات التعرف على الوجه في المطارات إلى أدوات الذكاء الاصطناعي التي تساعد في التحكم في الشبكة الكهربائية أو تحديد الرهون العقارية والتأمين على المنازل.

التوجيه السياسي الجديد، الذي أصدره مكتب الإدارة والميزانية بالبيت الأبيض لرؤساء الوكالات، اليوم الخميس، يأتي ضمن الأمر التنفيذي الأكثر شمولا للذكاء الاصطناعي، والذي وقعه الرئيس جو بايدن في أكتوبر/ تشرين الأول الماضي.

وبينما يحاول بايدن من خلال الأمر الذي وقعه حماية أنظمة الذكاء الاصطناعي التجارية الأكثر تقدما، والتي تصنعها شركات التكنولوجيا الرائدة مثل تلك التي تعمل على تشغيل روبوتات الدردشة المولدة للذكاء الاصطناعي، فإن القواعد التي أعلنتها هاريس اليوم تستهدف أدوات الذكاء الاصطناعي التي تستخدمها الوكالات الحكومية لسنوات للمساعدة في اتخاذ القرارات المتعلقة بالهجرة والإسكان ورعاية الأطفال ومجموعة من الخدمات الأخرى.

وعلى سبيل المثال، رأت هاريس أنه "إذا أرادت إدارة المحاربين القدامى استخدام الذكاء الاصطناعي في مستشفيات فرجينيا لمساعدة الأطباء على تشخيص المرضى، فسيتعين عليهم أولا إثبات أن هذا الذكاء الاصطناعي لا ينتج تشخيصات متحيزة عنصريا".

وبحسب إعلان البيت الأبيض، يجب على الوكالات التي لا تستطيع تقديم الضمانات "التوقف عن استخدام نظام الذكاء الاصطناعي، ما لم تبرر قيادة الوكالة سبب زيادة المخاطر على السلامة أو الحقوق أو خلق عائق غير مقبول أمام عمليات الوكالة المهمة".

(أسوشييتد برس)

المساهمون