وتقوم الجماعات المسلحة بتجربة الذكاء الاصطناعي، ومن المتوقع أن تتزايد المخاطر
واشنطن (أ ف ب) - بينما يسارع بقية العالم إلى تسخير قوة الذكاء الاصطناعي، تقوم الجماعات المسلحة أيضًا بتجربة هذه التكنولوجيا، حتى لو لم تكن متأكدة بالضبط مما يجب فعله بها.
بالنسبة للمنظمات المتطرفة، يمكن أن يكون الذكاء الاصطناعي أداة قوية لتجنيد أعضاء جدد وإنتاج صور واقعية مزيفة وتحسين هجماتهم الإلكترونية، كما قال خبراء الأمن القومي ووكالات التجسس. حذر.
وقد حث أحد الأشخاص الذين نشروا على موقع ويب تابع لتنظيم الدولة الإسلامية الشهر الماضي مؤيدي تنظيم الدولة الإسلامية الآخرين على جعل الذكاء الاصطناعي جزءًا من عملياتهم. "أحد أفضل الأشياء في الذكاء الاصطناعي هو مدى سهولة استخدامه"، كتب المستخدم باللغة الإنجليزية.
وتابع المستخدم: "تشعر بعض وكالات الاستخبارات بالقلق من أن الذكاء الاصطناعي سيساهم (في) التجنيد". "لذا، حولوا كوابيسهم إلى حقيقة".
تنظيم الدولة الإسلامية، الذي استولى على مناطق في العراق وسوريا منذ سنوات، لكنه أصبح الآن تحالفًا لامركزيًا من الجماعات المسلحة التي تتقاسم أيديولوجية عنيفة، أدركت منذ سنوات أن وسائل التواصل الاجتماعي يمكن أن تكون أداة قوية للتجنيد والتضليل، لذلك ليس من المستغرب أن تقوم المجموعة باختبار الذكاء الاصطناعي، كما يقول خبراء الأمن القومي. ص>
بالنسبة للجماعات المتطرفة غير المتماسكة وذات الموارد الضعيفة - أو حتى ممثل سيئ فردي لديه اتصال بالإنترنت - يمكن استخدام الذكاء الاصطناعي لضخ الدعاية أو التزييف العميق على نطاق واسع، مما يؤدي إلى توسيع نطاق وصولهم وتوسيع نفوذهم.
"بالنسبة لأي خصم، فإن الذكاء الاصطناعي يجعل من السهل فعل الأشياء". جون لاليبرتي، باحث سابق في الثغرات الأمنية في وكالة الأمن القومي وهو الآن الرئيس التنفيذي لشركة ClearVector للأمن السيبراني. "باستخدام الذكاء الاصطناعي، حتى المجموعة الصغيرة التي لا تملك الكثير من المال تظل قادرة على إحداث تأثير."
كيف تقوم الجماعات المتطرفة بالتجارب
بدأت الجماعات المسلحة في استخدام الذكاء الاصطناعي بمجرد أن أصبحت برامج مثل ChatGPT متاحة على نطاق واسع. وفي السنوات التي تلت ذلك، استخدموا بشكل متزايد برامج الذكاء الاصطناعي التوليدية لإنشاء صور ومقاطع فيديو ذات مظهر واقعي.
عند ربطه بخوارزميات الوسائط الاجتماعية، يمكن أن يساعد هذا المحتوى المزيف وتجنيد مؤمنين جدد، وإرباك الأعداء أو تخويفهم، ونشر الدعاية على نطاق لم يكن من الممكن تصوره قبل بضع سنوات فقط.
تنشر مثل هذه الجماعات صورًا مزيفة قبل عامين عن الحرب بين إسرائيل وحماس تصور أطفالًا مهجورين وملطخين بالدماء في المباني التي تعرضت للقصف. أثارت الصور الغضب والاستقطاب، بينما حجبت الفظائع الفعلية للحرب. استخدمت الجماعات العنيفة في الشرق الأوسط الصور لتجنيد أعضاء جدد، كما فعلت مجموعات الكراهية المعادية للسامية في الولايات المتحدة وأماكن أخرى.
وحدث شيء مماثل العام الماضي بعد الهجوم وأدى الهجوم الذي تبنته إحدى الجماعات التابعة لتنظيم الدولة الإسلامية إلى مقتل ما يقرب من 140 شخصًا في حفل موسيقي في روسيا. في الأيام التي تلت إطلاق النار، تم تداول مقاطع فيديو دعائية مصنوعة بواسطة الذكاء الاصطناعي على نطاق واسع على لوحات المناقشة ووسائل التواصل الاجتماعي، بحثًا عن مجندين جدد.
كما أنشأ تنظيم داعش تسجيلات صوتية مزيفة لقادته وهم يتلون القرآن الكريم واستخدم الذكاء الاصطناعي لترجمة الرسائل بسرعة إلى لغات متعددة، وفقًا للباحثين في SITE Intelligence Group، وهي شركة تتعقب الأنشطة المتطرفة وحققت في استخدام داعش المتطور للذكاء الاصطناعي.
"طموح" - في الوقت الحالي
تتخلف مثل هذه المجموعات عن الصين أو روسيا أو إيران ولا تزال تنظر إلى الاستخدامات الأكثر تطورًا للذكاء الاصطناعي على أنها "طموحة"، وفقًا لماركوس فاولر، عميل وكالة المخابرات المركزية السابق الذي يشغل الآن منصب الرئيس التنفيذي لشركة Darktrace Federal، وهي شركة للأمن السيبراني تعمل مع الحكومة الفيدرالية.
لكن المخاطر مرتفعة جدًا بحيث لا يمكن تجاهلها ومن المرجح أن تنمو مع توسع استخدام الذكاء الاصطناعي القوي والرخيص. قال.
إن المتسللين يستخدمون بالفعل الصوت والفيديو الاصطناعي لحملات التصيد الاحتيالي، حيث يحاولون انتحال شخصية أحد كبار رجال الأعمال أو القادة الحكوميين للوصول إلى الشبكات الحساسة. ويمكنهم أيضًا استخدام الذكاء الاصطناعي لكتابة تعليمات برمجية ضارة أو أتمتة بعض جوانب الهجمات السيبرانية.
والأمر الأكثر إثارة للقلق هو احتمال أن تحاول الجماعات المسلحة استخدام الذكاء الاصطناعي للمساعدة في إنتاج أسلحة بيولوجية أو كيميائية، للتعويض عن نقص الخبرة الفنية. تم تضمين هذا الخطر في تقييم التهديدات الداخلية المحدث لوزارة الأمن الداخلي، الذي تم إصداره في وقت سابق هذا العام وقال فاولر: "دخل تنظيم داعش إلى تويتر مبكرًا ووجد طرقًا لاستخدام وسائل التواصل الاجتماعي لصالحه". "إنهم يبحثون دائمًا عن الشيء التالي لإضافته إلى ترسانتهم."
مواجهة التهديد المتزايد
طرح المشرعون عدة مقترحات، قائلين إن هناك حاجة ملحة للتحرك.
السيناتور. على سبيل المثال، قال مارك وارنر من فرجينيا، وهو أكبر عضو ديمقراطي في لجنة الاستخبارات بمجلس الشيوخ، إن الولايات المتحدة يجب أن تسهل على مطوري الذكاء الاصطناعي تبادل المعلومات حول كيفية استخدام منتجاتهم من قبل جهات فاعلة سيئة، سواء كانوا متطرفين أو قراصنة إجراميين أو جواسيس أجانب. قال وارنر: "لقد كان من الواضح منذ أواخر عام 2022، مع الإصدار العام لـ ChatGPT، أن نفس الانبهار والتجريب بالذكاء الاصطناعي التوليدي الذي يتمتع به الجمهور سينطبق أيضًا على مجموعة من الجهات الفاعلة الخبيثة".
خلال جلسة استماع حديثة حول التهديدات المتطرفة، علم المشرعون في مجلس النواب أن تنظيمي داعش والقاعدة عقدوا ورش عمل تدريبية لمساعدة المؤيدين على تعلم استخدام الذكاء الاصطناعي.
التشريع الذي أقره مجلس النواب الأمريكي مؤخرًا سيتطلب الأمر من مسؤولي الأمن الداخلي تقييم مخاطر الذكاء الاصطناعي التي تشكلها مثل هذه الجماعات كل عام. ص>
وقال النائب أوغست بفلوغر، الجمهوري من تكساس، وهو راعي مشروع القانون، إن الحماية من الاستخدام الضار للذكاء الاصطناعي لا تختلف عن الاستعداد لمزيد من الهجمات التقليدية.
وقال: "يجب أن تواكب سياساتنا وقدراتنا تهديدات الغد".