«تنبؤ الذكاء الاصطناعي».. كيف تُستخدم التكنولوجيا في مكافحة الإرهاب؟

السبت 30/نوفمبر/2019 - 01:32 م
طباعة «تنبؤ الذكاء الاصطناعي».. شيماء حفظي
 
ينادي خبراء مكافحة الإرهاب في العالم، باعتماد طرق تكنولوجية لمكافحة الإرهاب والتطرف، بعيدًا عن الحلول العسكرية، والاهتمام أكثر بالمواجهة الفكرية.

وتقول ورقة بحثية صادرة عن معهد «تشاتام هاوس» في أغسطس 2019، بعنوان: «تنبؤ الذكاء الاصطناعي ومكافحة الإرهاب» للكاتبة «كاثيلين ماكيندريك»، إنه يمكن استخدام الذكاء الاصطناعي لعمل تنبؤات حول الإرهاب.

وتشرح الكاتبة، أنه يمكن من خلال تحليل البيانات الوصفية للاتصالات والمعلومات عن المعاملات المالية وأنماط السفر وأنشطة تصفح الإنترنت، والمعلومات المتاحة للجمهور مثل نشاط وسائل التواصل الاجتماعي، تحديد الإرهابيين عبر التفرقة بين ما يميز نشاط مجموعة فرعية معينة على هذه الوسائط.

ومن بين الوسائل التي يمكن استخدامها كبيانات تخضع للتحليل، التعرف على الصورة والصوت؛ حيث تسمح أساليب التعلم الآلي بتفسير وتحليل الأنماط التي يتعذر الوصول إليها بكميات كبيرة من البيانات.

وتشير الكاتبة، في بحثها، إلى أن استخدام الذكاء الاصطناعي، يمكن من التنبؤ بتوقيت وموقع الهجمات، حيث تم تطوير نماذج تتنبأ بموقع الهجمات الإرهابية وتوقيتها.

التنبؤ بالهجمات الانتحارية

وفي عام 2015 ادعت شركة تكنولوجية ناشئة (PredictifyMe) أن نموذجها، الذي يحتوي على أكثر من 170 نقطة بيانات، كان قادرًا على التنبؤ بالهجمات الانتحارية بدقة 72%، كذلك اعتمدت بعض النماذج الأخرى على بيانات المصادر المفتوحة للأفراد الذين يستخدمون الوسائط الاجتماعية والتطبيقات على هواتفهم المحمولة، ومن بينها نظام التعرف على الأحداث في وقت مبكر «EMBERS»، والذي يدمج نتائج مختلف النماذج التنبؤية المنفصلة من أجل التنبؤ بأحداث مثل تفشي الأمراض والاضطرابات المدنية، بحسب الدراسة.

إضافة إلى التنبؤ بمواقع العمليات الإرهابية، طوَّرت بعض شركات التكنولوجيا أدوات لتقييم قابلية التعرض للأيديولوجيات المتطرفة العنيفة؛ مثل شركة Jigsaw التابعة لشركة Alphabet Inc «المعروفة سابقًا باسم Google Ideas» التي أعلنت عن مشروعها باسم «إعادة التوجيه»، الذي يستهدف مستخدمي مواقع مشاركة الفيديو الذين قد يكونون عُرضة للدعاية من الجماعات الإرهابية مثل تنظيم «داعش»؛ إذ يُعيد المشروع توجيههم إلى مقاطع الفيديو التي تتبنى رواية موثوقة ومضادة لرواية التنظيم.

أما الميزة الأكثر أهمية، التي يمكن أن يساعد فيها تطبيقات تكنولوجيا الذكاء الاصطناعي، هي التعرف على الإرهابيين؛ حيث تُشير بعض التفاصيل المسرّبة عن برنامج لوكالة الأمن القومي الأمريكية (SKYNET) إلى أنه تم استخدام خوارزمية معتمدة على الذكاء الاصطناعي لتحليل البيانات الوصفية من 55 مليون مستخدم محلي للهاتف المحمول الباكستاني في 2007، وكانت النتيجةُ أنه تم تعريف نسبة خطأ 0.008% فقط من الحالات على أنهم إرهابيون محتملون، أي حوالي 15 ألف فرد من إجمالي سكان باكستان البالغ 200 مليون آنذاك.

وعلى الرغم أن النموذج المستخدم لم يكن فعالًا بحد ذاته، فإنه يوضح القيمة التنبؤية للبيانات عند تحديد روابط وثيقة مع الإرهاب.

لكن على جانب آخر، يتطلب استخدام تلك التقنيات الوصول إلى بيانات المستخدمين، وهو ما يضعها في مواجهة أمام حقوق الإنسان، وسرية المعلومات والبيانات وتحدي انتهاك الخصوصية.

معضلة القوانين الدولية

وتقول الكاتبة: إن عدم وجود معايير راسخة لاستخدام تكنولوجيا الذكاء الاصطناعي، حيث لا يوجد موقف دولي متفق عليه حول حدود استخدامات الذكاء الاصطناعي في المجتمعات المختلفة، بما يضع حقوق وحريات المواطنين على المحك.

وتشير إلى أنه مع اختلاف النظم السياسية بين سلطوية وديمقراطية، تزيد الحاجة إلى وجود ضمانات كافية لاستخدام الذكاء الاصطناعي من قبل الحكومات والأجهزة الأمنية، وكذلك مراجعة التدابير المصممة لحماية ليس فقط الخصوصية بل أيضًا الحريات الأساسية للمواطنين مثل حرية التعبير.

وتضيف الكاتبة، أن هناك تحديًا آخر في تطبيق التكنولوجيا في مكافحة الإرهاب، يتعلق بعشوائية جمع البيانات، والذي يعتمد تطبيقه على جميع السكان، وهذا سيجعله عشوائيًّا، وبالتالي غير متناسب بطبيعته، فضلًا عن انتهاكه خصوصيات العامة.

وبخلاف المخاوف من الاستغلال الحكومي، فإن الشركات الخاصة تمارس دورًا أكبر في تحديد كيفية استخدام بيانات العملاء، خاصة في النظم الديمقراطية التي تلتزم فيها السلطات بالقانون، فيما يختلف الأمر في النظم السلطوية حيث يتم إجبار الشركات الخاصة على إعطاء المعلومات لوكالات إنفاذ القانون والأمن، سواء بشرائها أو بسبل أخرى مثل اعتراض الاتصالات السلكية واللاسلكية للشركات، وهو ما يعدّ تحديًا أيضًا بحسب الدراسة.

وتتطلب مكافحة الإرهاب، شفافية تتعلق بجمع المعلومات واستخداماتها، ومن ثم فإن استخدام الذكاء الاصطناعي قد يمثل مشكلة إذا كان يُرى أنه يشكل تهديدًا لذلك النهج، وفقًا للدراسة.

شارك