تحذيرات أمنية: كيف تستخدم الجماعات المسلحة الذكاء الاصطناعي لتعزيز هجماتها السيبرانية
حذرت وكالات الاستخبارات وخبراء الأمن القومي من أن الذكاء الاصطناعي قد يصبح أداة خطيرة في أيدي الجماعات المسلحة المتطرفة . أشاروا إلى استخدامه في تجنيد أعضاء جدد، إنتاج صور مزيفة، وتحسين الهجمات السيبرانية .
يرى الخبراء أن تنظيم “داعش” أدرك منذ سنوات أهمية وسائل التواصل الاجتماعي. لذلك بدأ اختبار الذكاء الاصطناعي التوليدي لنشر الدعاية بشكل أسرع وأكثر فعالية. وأفادت وكالة أسوشيتد بريس أن الجماعة بدأت بالفعل دمج هذه التكنولوجيا في عملياتها.
سهولة استخدام الذكاء الاصطناعي
في الشهر الماضي، دعا شخص على موقع مؤيد لـ”داعش” أنصار الجماعة إلى استخدام الذكاء الاصطناعي . وقال إن أفضل ميزة هي سهولة الاستخدام .
وأكد خبراء أن أي فرد سيئ النية يمكنه استغلال الذكاء الاصطناعي لإنتاج دعاية أو صور وفيديوهات مزيفة. ويضيف جون لاليبيرت، الباحث السابق في وكالة الأمن القومي: “حتى مجموعة صغيرة لا تملك الكثير من المال تستطيع إحداث تأثير كبير باستخدام الذكاء الاصطناعي”.
استخدام الذكاء الاصطناعي في الترويج والتجنيد
بدأت الجماعات المسلحة استخدام برامج مثل شات جي بي تي منذ إطلاقه
يربطون المحتوى المزيف بخوارزميات وسائل التواصل الاجتماعي لتجنيد مؤيدين جدد، إرباك الخصوم، ونشر الدعاية على نطاق واسع.
من الأمثلة، انتشرت مقاطع فيديو دعائية أنشأها الذكاء الاصطناعي بعد هجوم “داعش” الذي أسفر عن مقتل 140 شخصًا في قاعة حفلات بروسيا العام الماضي.
التهديدات السيبرانية
أوضح ماركوس فاولر، العميل السابق في CIA: الجماعات المسلحة لا تزال متأخرة عن الصين وروسيا وإيران. رغم ذلك، يتطورون بسرعة.
يستخدم قراصنة الإنترنت الصوت والفيديو الاصطناعيين في حملات تصيد احتيالي. ينتحلون صفة مسؤولين للوصول إلى شبكات حساسة.
يمكنهم أيضًا كتابة برمجيات خبيثة أو أتمتة بعض الهجمات السيبرانية. وأكثر ما يثير القلق هو احتمال استخدام الذكاء الاصطناعي لإنتاج أسلحة بيولوجية أو كيميائية لتعويض نقص الخبرة التقنية.
تحرك الولايات المتحدة لمواجهة التهديد
أدرجت وزارة الأمن الداخلي الأميركية هذا الخطر في تقييم التهديدات الداخلية . وطرح المشرعون تدابير لتقييد هذا التهديد المتزايد.
اقترح السناتور مارك وارنر تسهيل تبادل المعلومات بين مطوري الذكاء الاصطناعي حول استخدام منتجاتهم من قبل الجهات السيئة.
كما كشف الكونغرس أن داعش والقاعدة عقدوا ورشات تدريبية لتعليم أتباعهم استخدام الذكاء الاصطناعي. وأقر مجلس النواب تشريعًا يلزم مسؤولي الأمن الداخلي بإجراء تقييم سنوي لمخاطر الذكاء الاصط .
الخلاصة
تشير التحليلات إلى أن الذكاء الاصطناعي التوليدي أصبح سلاحًا خطيرًا عند وقوعه في أيدي الجماعات المسلحة.
يسهّل تجنيد المتطرفين، إنتاج محتوى مزيف، وتنفيذ هجمات سيبرانية معقدة . تؤكد هذه المخاطر ضرورة تعزيز السياسات الأمنية، الرقابة، وتعاون المطورين مع السلطات .
يبقى التحدي المزدوج هو توفير الابتكار وفوائد الذكاء الاصطناعي ، مع حماية المجتمع من استغلاله في أعمال إرهابية أو سيبرانية خطيرة










