الذكاء الاصطناعي ومنع التطرف العنيف: دليل عملي من الأمم المتحدة
الثلاثاء 24/فبراير/2026 - 10:26 ص
طباعة
حسام الحداد
يُبيّن الدليل العملي لعام 2026 الصادر عن مكتب الأمم المتحدة لمكافحة الإرهاب بشأن الذكاء الاصطناعي ومنع ومكافحة التطرف العنيف، كيف يُعيد الذكاء الاصطناعي تشكيل البرنامج العالمي لمنع ومكافحة التطرف العنيف . يُولّد الذكاء الاصطناعي معلومات مضللة ومغلوطة ومحتوى مُصطنع، مما يُشكّل تحديات عملية للمختصين. كما يُوفّر أدوات لرصد أنشطة التطرف، وتطوير الرسائل، وكشف المحتوى غير الموثوق، والتواصل مع الفئات المُستضعفة عند استخدامه بمسؤولية.
بيئة التهديدات المتطورة
يُفصّل الدليل كيفية دمج الجهات الفاعلة المتطرفة العنيفة للذكاء الاصطناعي في إنتاج الدعاية، وتوسيع نطاق المحتوى متعدد اللغات، وتوليد الوسائط الاصطناعية. تُقلل الأنظمة التوليدية وقت إنتاج النصوص والصوت والفيديو. تُعقّد أدوات التزييف العميق عملية تحديد المصدر وثقة الجمهور. تُشكّل خوارزميات المنصات أنماط الظهور والتفاعل بطرق تؤثر على مسارات التطرف. تُقدّم الوثيقة هذه البيئة كشرط هيكلي لجهود الوقاية المعاصرة، مما يتطلب معرفة تقنية وقدرة على التكيف التحليلي.
التبني والعوائق
أظهر استطلاع شمل 120 ممارسًا في مجال مكافحة التطرف العنيف من 45 دولة أن أقل من ربعهم يستخدمون الذكاء الاصطناعي حاليًا. وتشمل العوائق مخاوف بشأن الموثوقية والتحيز والخصوصية والشفافية، فضلًا عن محدودية القدرات التنظيمية والتدريب. وأعرب معظم المشاركين عن اهتمامهم بتبني الذكاء الاصطناعي مستقبلًا، وأشاروا إلى رغبتهم في الحصول على تدريب في مجال حقوق الإنسان والأخلاقيات والأطر القانونية والاستخدام العملي للذكاء الاصطناعي في سياقات مكافحة التطرف العنيف.
حالات الاستخدام التشغيلية المحددة
بدلاً من الدعوة إلى تبني التكنولوجيا على نطاق واسع، يُحدد الدليل تطبيقات محددة. تشمل هذه التطبيقات مراقبة المصادر المفتوحة على نطاق واسع، واختبار السرد وتحليل الاتجاهات، والكشف عن السلوكيات غير الأصيلة المنسقة، وتحديد الوسائط الاصطناعية، وتعزيز المراقبة والتقييم من خلال تحليل البيانات. يُنظر إلى الذكاء الاصطناعي كأداة دعم تحليلية مُدمجة ضمن سير العمل المُعتمد. مع ذلك، يتطلب التنفيذ الفعال معالجة الثغرات الأمنية والمعرفية، والتحيز الخوارزمي، والتمييز، والتأثيرات على الخصوصية وحرية التعبير. تُعد الرقابة البشرية، وتقييمات المخاطر، والتدقيق، والتعاون عناصر أساسية لدمج الذكاء الاصطناعي بشكل مسؤول.
الحوكمة وضمانات حقوق الإنسان
يركز جزء كبير من الدليل على الضمانات. ويشترط إجراء تقييمات موثقة للمخاطر قبل النشر، وإشرافًا بشريًا مستمرًا، وآليات للشفافية، وإجراءات تدقيق. ويتناول الدليل مخاطر التحيز الخوارزمي، والمخرجات التمييزية، وانتهاكات الخصوصية، وتوسع نطاق المهام. ويجب أن يتوافق دمج الذكاء الاصطناعي مع القانون الدولي لحقوق الإنسان، بما في ذلك حماية حرية التعبير والإجراءات القانونية الواجبة. وتُعتبر المساءلة المؤسسية عنصرًا أساسيًا لا غنى عنه في عملية التنفيذ.
بناء القدرات والموارد
يُعدّ الاستعداد المؤسسي أمرًا بالغ الأهمية. ويؤكد الدليل على أهمية التحضير قبل التبني. يُنصح المؤسسات ببناء معرفة الذكاء الاصطناعي لدى القيادة والموظفين التشغيليين، ووضع معايير للمشتريات وعمليات التدقيق الفني اللازم، والتواصل مع أصحاب المصلحة، وتحديد معايير التقييم، وتجربة التدخلات، والاستعانة بخبرات فنية خارجية عند الضرورة. تتضمن الوثيقة أوراق عمل عملية وأدوات تقييم، بما في ذلك قوائم مراجعة، ونماذج لتقييم المخاطر، ومبادئ توجيهية أخلاقية، وأدوات لرسم خرائط أصحاب المصلحة، مصممة لتقييم ما إذا كانت المؤسسة تمتلك الحوكمة والقدرة التقنية اللازمة لنشر الذكاء الاصطناعي بمسؤولية.
للحصول على مثال واقعي لكيفية إضافة الذكاء الاصطناعي أداة جديدة إلى ترسانة أدوات الجماعات المسلحة في ساحة المعركة، يُرجى الاطلاع على مقال ماثيو تيرنر الأخير بعنوان " الجهات الفاعلة العنيفة غير الحكومية والذكاء الاصطناعي التوليدي في الحروب: قوات الدعم السريع والحرب الأهلية السودانية" . وكما يوضح، فإن استخدام الحملات الإلكترونية المنسقة، وشبكات الروبوتات، والمعلومات المضللة في سياق النزاعات، يُعزز كيفية استغلال الجهات المتطرفة وغير النظامية للمنصات الرقمية، وهو ما يتوافق مع مخاوف دليل الأمم المتحدة بشأن تعقيد المحتوى المُصطنع لجهود الوقاية.
