فنانون يحصّنون أعمالهم ضد برامج الذكاء الاصطناعي

فنانون يحصّنون أعمالهم ضد برامج الذكاء الاصطناعي

27 ديسمبر 2023
تستخدم أعمالهم لتدريب نماذج للذكاء الاصطناعي (Getty)
+ الخط -

في ظل استغلال بعض مبتكري برامج الذكاء الاصطناعي البيانات بصورة كبيرة، يعمل عدد من الفنانين بمساعدة باحثين جامعيين على إدخال تغييرات على أعمالهم حتى تُصبح غير قابلة للاستخدام.

وبدأت برامج كثيرة للذكاء الاصطناعي التوليدي توفير إمكانية ابتكار صور مستوحاة من أسلوب عمل الرسامة الأميركية بالوما ماكلين، مع أنّ الفنانة لم توافق على ذلك ولا تستفيد منه مالياً.

وتقول الرسامة المقيمة في هيوستن (تكساس): "أنزعج من ذلك"، مضيفةً "أنا لست فنانة مشهورة، لكنني انزعجت من فكرة استخدام أعمالي لتدريب" نماذج للذكاء الاصطناعي.

وسعياً إلى الحد من استغلال أعمالها، استعانت ماكلين ببرنامج غليز لإضافة عناصر بكسل غير المرئية للعين المجردة إلى أعمالها، بهدف تعطيل عمل الذكاء الاصطناعي. وبعد خطوتها هذه، باتت الصور التي يتم إنشاؤها غير واضحة.

يقول بن تشاو، وهو باحث في جامعة شيكاغو أنشأ فريقه برنامج غليز: "نحاول توفير الأدوات التكنولوجية لحماية المبتكرين من إساءة استخدام نماذج الذكاء الاصطناعي التوليدية".

وابتكر هذا الأستاذ في علوم الكمبيوتر برنامج غليز في أربعة أشهر فقط، مستعيناً بأعمال سابقة ترمي إلى تعطيل تقنية التعرف إلى الوجوه. ويضيف بن تشاو: "عملنا بأقصى سرعة، لأننا كنا ندرك أنّ المشكلة خطرة"، مشيرا إلى أن "نسبة كبيرة من الناس متضررة".

وأبرمت شركات كبرى متخصصة في الذكاء الاصطناعي التوليدي صفقات لضمان الحقوق المرتبطة باستخدام محتوى معين، إلا أنّ غالبية البيانات والصور والنصوص والأصوات المستخدمة لابتكار النماذج استُخدمت من دون الحصول على موافقة صريحة.

وجرى تحميل "غليز" منذ إطلاقه أكثر من 1.6 مليون مرة، بحسب الباحث الذي يستعد فريقه لإطلاق برنامج جديد هو "نايت شايد".

يركز "غليز" على الطلبات التي تكون لغتها بسيطة وعادة ما يستعين بها المستخدم في نماذج الذكاء الاصطناعي التوليدي للحصول على صورة جديدة. ويرمي إلى تعطيل عمل الخوارزمية التي تقترح فوراً احتمالاً آخر كابتكار صورة قط بدل صورة كلب.

حماية البيانات الصوتية 

ثمة مبادرة أخرى في هذا الخصوص خاصة بشركة سبانينغ التي ابتكرت برنامج كودورو الذي يرصد المحاولات الكبيرة لجمع الصور عبر المنصات المتخصصة.

ويمكن للفنان إما وقف إتاحة أعماله أو إرسال صورة غير تلك المطلوبة، وهو ما يشكل "تسميماً" لنموذج الذكاء الاصطناعي قيد الابتكار والتأثير على مدى موثوقيته، بحسب جوردان ماير، المشارك في تأسيس "سبانينغ".

ودمج أكثر من ألف موقع إلكتروني في شبكة كودورو.

وابتكرت شركة سبانينغ أيضاً "هاف آي بِن ترايند"، وهو موقع يرصد ما إذا كان نموذج للذكاء الاصطناعي قد استعان بصور ويمنح مالك هذه الصور القدرة على حمايتها من أي استخدام مستقبلي لا يحظى بموافقته.

وبالإضافة إلى الصور، ركّز باحثون من جامعة واشنطن في سانت لويس (ميسوري) على بيانات صوتية وابتكروا "أنتي فايك".

يضيف هذا البرنامج إلى ملف صوتي أصواتاً إضافية غير محسوسة للأذن البشرية، وهو ما يجعل تقليد الصوت البشري أمرا مستحيلا، بحسب ما يوضح تشييوان يو، وهو طالب دكتوراه مسؤول عن فكرة هذا المشروع.

ويرمي البرنامج تحديداً إلى منع ما يُسمى بـ"ديب فايك" (التزييف العميق)، وهي تلاعبات رقمية تتزايد نسبتها وقربها من الواقع.

وأخيراً، تواصل منتجو بودكاست ناجح يرغبون في حمايته من أي استخدام سيئ، مع الفريق الذي يشرف عليه البروفيسور نينغ تشانغ، بحسب تشييوان يو.

ومع أنّ "أنتي فايك" لم يُستخدم حتى الآن سوى في مجال اللغة، يمكن أن يوفر حماية لأصوات المطربين والمطربات، كما يقول الباحث.

وقد تواصلت "شركات كثيرة راغبة في استخدام نايت شايد لحفظ صورها وملكيتها الفكرية"، مع فريق بن تشاو، بحسب جامعة شيكاغو.

يقول بن تشاو إنّ "الهدف يكمن في أن يتمكن الأشخاص من حماية المحتوى الخاص بهم، سواء كانوا فنانين أو شركات تتمتع بقدر كبير من الملكية الفكرية".

في حالة "سبانينغ"، لا تقتصر الفكرة على العرقلة فحسب، بل "جعل الناس قادرين على بيع بياناتهم لقاء مبالغ"، وفق ماير الذي أعلن عن إطلاق منصة في مطلع العام 2024.

ويتابع "إن الحل الأفضل هو الوصول إلى عالم تخضع فيه كل البيانات المستخدمة في الذكاء الاصطناعي لموافقة المعنيين والدفع مقابل استخدام أعمالهم. ونأمل أن ننجح في دفع المطورين في هذا الاتجاه".

(فرانس برس)

المساهمون