استمع إلى الملخص
- شهدت الفترة الأخيرة عمليات احتيال بارزة باستخدام الذكاء الاصطناعي، مثل دفع امرأة فرنسية 830 ألف يورو لشخص ادّعى أنه براد بيت، وسرقة 26 مليون يورو في هونغ كونغ باستخدام التزييف العميق.
- لمواجهة الاحتيال، يُنصح بالتحقق من هوية المحاور وطلب تحريك الكاميرا في مكالمات الفيديو، مع استخدام الذكاء الاصطناعي في الدفاع، لكن تبقى اليقظة الشخصية الحماية الأساسية.
تجعل أدوات الذكاء الاصطناعي، التي أصبحت قادرة راهناً على إنتاج نصوص وصور ومقاطع فيديو بشكل فوري، عمليات الاحتيال معقدة أكثر. وأحد أكثر أشكال عمليات الاحتيال عبر الإنترنت شهرة هو "التصيد الاحتيالي"، أي إرسال رسائل بالبريد الإلكتروني أو رسائل نصية قصيرة تحت ادعاءات كاذبة تدعو المستخدمين إلى النقر على رابط احتيالي ومشاركة البيانات الشخصية.
ومن عملية الاحتيال التي حظيت بتغطية إعلامية كبيرة لامرأة فرنسية دفعت 830 ألف يورو لشخص ادّعى أنه براد بيت، وصولاً إلى مجموعات تبرعات وهمية لضحايا حرائق لوس أنجليس، أظهرت الأسابيع الأخيرة أننا جميعاً "أفراداً وشركات نشكل أهدافاً للهجمات الإلكترونية"، بحسب أرنود لومير من شركة "إف 5" الأميركية المتخصصة بالأمن السيبراني.
وتجعل روبوتات المحادثة المهاجمين يوفرون الوقت، وتتيح لهم إعداد رسائلهم الكاذبة بشكل أفضل، وفق لومير. وإذا كان المحتال يجهل تفاصيل لغة معيّنة فإنه يستخدم الذكاء الاصطناعي التوليدي لكتابة بريده الإلكتروني، ما "سيخفي الأدلة تماماً" كالأخطاء الإملائية والنحوية، على قول الخبير.
الذكاء الاصطناعي في منصب المدير
ليست برامج توليد النصوص سوى غيض من فيض. ويمكن لنماذج الذكاء الاصطناعي "الاستفادة من كل البيانات التي سُرقت خلال السنوات الأخيرة لأتمتة إنشاء عمليات احتيال مخصصة جداً"، بحسب ستيف غروبمان، المدير الفني لشركة مكافي المتخصصة في برامج الأمان. وبدل الاكتفاء بمكاسب صغيرة وسريعة، يسعى المهاجمون غالباً إلى كسب ثقة بعض الموظفين داخل الشركات المستهدفة، وإذا وقع موظف في الفخ، ينتظر المجرمون "حتى يصبح هذا الشخص مؤثراً جداً أو تسنح فرصة جيّدة لابتزازه من أجل الأموال" قبل استغلال هذا التواصل، على قول مارتن كريمر، من شركة نوو بي 4 الأميركية للتدريب على الأمن السيبراني.
وفي فبراير/ شباط 2024، حصل محتالون على 26 مليون يورو من شركة متعددة الجنسيات في هونغ كونغ. وقالت السلطات إن أحد الموظفين الماليين اعتقد أنه كان في مكالمة جماعية عبر الفيديو مع الرئيس التنفيذي للشركة وموظفين آخرين، إلا أنّ هؤلاء كانوا صوراً متحركة مفبركة بتقنية "التزييف العميق"، ويحذر ستيف غروبمان، الذي يؤكد أن باحثاً في "مكافي" تمكن من استبدال وجهه بوجه النجم الهوليوودي توم كروز بأقل من 5 يورو، من أنّ "أحدث جيل من برامج التزييف العميق وصل إلى نقطة لا يستطيع فيها أحد تقريباً التمييز بين الصورة الفعلية والصورة المولّدة بواسطة الذكاء الاصطناعي".
كيف نحمي أنفسنا من احتيال الذكاء الاصطناعي؟
أصبحت عمليات الاحتيال عبر الإنترنت مجالاً مربحاً، "فعلى غرار قطاعات أخرى، ثمة سلاسل توريد ونظام كامل لدعمها"، على ما يلاحظ الخبير في "مكافي". وعلى الرغم من أن عدداً كبيراً من عمليات الشرطة قوّضت شبكات معيّنة، مثل شبكة لوكبيت، وهي إحدى مجموعات الجرائم الالكترونية الرئيسية في العالم، والتي فُكّكت أوائل عام 2024، بات هذا النوع من الجرائم الإلكترونية منظماً واحترافياً.
ويقول لومير إنّ التأكد من هوية المُحاور عبر الإنترنت، "يحتاج نوعاً ما إلى كلمة مفتاح"، وتتمثل إحدى النصائح الأخرى بالطلب من أحد المحاورين عبر الفيديو تحريك الكاميرا لإظهار محيطه، وهو ما يصعب على الذكاء الاصطناعي إنجازه راهناً. ولا يقلق تطوير أدوات الذكاء الاصطناعي الجديدة مارتن كريمر بشكل كبير، ويقول "يمكننا استخدام الذكاء الاصطناعي في الهجوم كما في الدفاع"، وتبقى الحماية الأساسية لمستخدم الإنترنت ضد عمليات الاحتيال هي يقظتُه.
(فرانس برس، العربي الجديد)