الذكاء الاصطناعي والتطرف: التهديد القادم
لقد كانت الجماعات المتطرفة، وستظل دائماً، أول من يتبنى التقنيات الحديثة؛ وذلك في سعيها إلى زيادة عدد أتباعها وتعزيز شهرة قضيتها. وأتذكر دهشتي عندما تعرفت لأول مرة على موقع “عزام.كوم” في منتصف التسعينيات، عندما كانت شبكة الإنترنت في بداياتها، ومع ذلك، تمكن الجهاديون من إنشاء مواقع ويب براقة تقدم تحديثات ميدانية من المسارح التي كانوا ينشطون فيها. وقد تم إطلاق موقع “عزام.كوم” في عام 1994، وقد سُمي على اسم عبد الله عزام، الذي يعدّ الأب الروحي للجهاد العالمي، وكان بمثابة مرشد لأسامة بن لادن. أما منتدى الويب النازي الجديد “ستورم فرونت”، الذي أنشأه عضو سابق في جماعة كو كلوكس كلان، فقد تأسس في أواخر عام 1996. وفي هذا السياق، لم يكن لدى هيئة الإذاعة البريطانية موقع إخباري كامل حتى عام 1997.
إن شبكة الإنترنت، والأدوات التكنولوجية المرتبطة بها، توفر للمتطرفين وغيرهم من الجهات الخبيثة مزايا عديدة لا تقدر بثمن بالنظر إلى طبيعة قضاياهم. أولاً، القدرة على البقاء مجهولين مع الوصول إلى عدد غير محدود من الناس في جميع أنحاء العالم والتأثير عليهم. ثانياً، تمكنهم من تجاوز الحدود والعمل في مساحات غير إقليمية وممتدة على نطاق واسع. ثالثاً، تسمح لهم بالسيطرة على سردياتهم واستبعاد أي أصوات معارضة قد تتحدى ما يروجون له. رابعاً، تسمح لهم بخلق وهم الجاذبية الجماهيرية واستقطاب الدعم لقضايا ومجموعات هامشية مما يوفر درجة من المصداقية لم تكن موجودة من قبل.
من المرجح أن يكون ميلاد الذكاء الاصطناعي وظهوره ونموه الهائل الثورة التكنولوجية الأكثر أهمية وتأثيراً في تاريخ البشرية. لأول مرة في وجودنا كنوع، ستوجد قوة ليست قادرة فقط على أداء مهام معقدة إدراكياً، بل، وفي معظم الحالات، ستنجزها بشكل أفضل وأسرع منا بكثير. المهام التي كانت تستغرق شهوراً ستستغرق الآن ثوانٍ، وسيصبح المستحيل على ما يبدو قريباً على بعد بضع نقرات بالماوس لأي شخص لديه جهاز وإمكانية الوصول إلى الإنترنت. بالنظر إلى قانون مور، الذي ينص على أن قوة معالجة الكمبيوتر تتضاعف كل عامين، يمكننا أن نتوقع أن يصبح الذكاء الاصطناعي البدائي الذي لدينا اليوم أكثر تطوراً في غضون سنوات قليلة.
ونظراً لسهولة الوصول إلى الذكاء الاصطناعي وتوافره على نطاق واسع؛ فمن المرجح أيضاً أن تُستخدم هذه التكنولوجيا لأغراض ضارة. ويمكن للجهات الفاعلة السيئة والجماعات المتطرفة استخدامه بسهولة لإنشاء ونشر معلومات مضللة ودعاية متطرفة بوتيرة غير مسبوقة. ونظراً لتطور أدوات الذكاء الاصطناعي وطبيعتها سريعة التحول، فسيكون من الصعب للغاية إيقاف هذا. علاوة على ذلك، ونظراً لنموذج العمل الذي تتبناه معظم منصات التواصل الاجتماعي الكبيرة، يمكن تغذية هذا المحتوى الضار في خوارزميات تعمل على تضخيم المحتوى الذي تعتقد أنه أكثر جذباً للمستخدمين. ومع عجز الوكالات الحكومية في كثير من الأحيان عن مواكبة التطورات التكنولوجية من الناحية التشريعية، فقد نكون على أعتاب فترة من الفوضى السياسية والاجتماعية وعدم الاستقرار بسبب الاستخدام المتطرف للذكاء الاصطناعي.
وقد تم استكشاف هذه القضية في كتاب قادم بعنوان “الأمن السيبراني في عصر الذكاء الاصطناعي والأسلحة ذاتية التشغيل”، حيث يتناول أحد فصول الكتاب الطرق المختلفة التي يمكن للجماعات المتطرفة من خلالها استخدام الذكاء الاصطناعي وما يمكن القيام به حيال ذلك. وفيما يلي ملخص للنتائج الرئيسية لهذا الفصل:
هناك أربع طرق رئيسة من المرجح أن تتجلى بها الظاهرة المذكورة أعلاه، وهي: الذكاء الاصطناعي التوليدي، بوت الدردشة، الألعاب، والتحليلات التنبؤية. يمكن للمتطرفين استخدام تقنية الذكاء الاصطناعي التوليدي لإنشاء جميع أنواع المحتوى من مقاطع الفيديو الدعائية والصور والموسيقى والترجمات وما إلى ذلك. المحتوى الذي كان يستغرق في السابق أسابيع وأشهر لإنتاجه من قبل أفراد يتمتعون بدرجة من الخبرة الفنية سيكون من السهل الآن إنشاؤه لأي شخص في وقت قصير. يمكن للمتطرفين برمجة بوت الدردشة لنقل وجهات نظر دعايتهم إلى العالم دون تكلفة عالية وفي وقت قياسي. يمكن نشر الحسابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي على منصات الألعاب لتحديد وجذب المجندين المحتملين. ويمكن استخدام الأدوات التحليلية التي تعمل بالذكاء الاصطناعي لتحديد واستهداف الأشخاص الأكثر عرضة للتطرف بشكل مباشر.
فيما يتعلق بتنظيم التطرف على المنصات التقنية الكبرى، مثل فيسبوك وإكس ويوتيوب، فإن التقدم الحقيقي يعرقله للأسف التوازن بين الضرر المجتمعي وأرباح الشركات، حيث تكون الأخيرة غالباً العامل المهيمن. تعتمد هذه المنصات على الاحتفاظ باهتمام المستخدم؛ لأن ذلك يؤدي إلى زيادة عائدات الإعلانات، وبالتالي فهي مترددة في اتخاذ خطوات تقلل من الوقت الذي يقضيه المستخدمون على منصاتها والتفاعل مع المحتوى الذي يعتبرونه جذاباً. لسوء الحظ، يشمل هذا جميع أنواع المستخدمين، الأمر الذي يستلزم تنوعاً كبيراً في المحتوى، بما في ذلك المحتوى الذي يسعى إلى بناء التعاطف مع القضايا المتطرفة.
إن إحدى السمات التي يمكن فرضها على المنصات التقنية والمنتديات وتطبيقات المراسلة هي ضرورة تحديد حسابات الروبوتات الذكية بوضوح باستخدام نوع من العلامات التعريفية. يجب أن يكون للمستخدمين الحق في معرفة متى يتفاعلون مع إنسان أو روبوت ذكي لأن هذا من المرجح أن يغير الطريقة التي يستجيبون بها للحساب المعني. لم يتم اتخاذ هذا الإجراء الواضح الهادئ بعد لأنه سيقلل من المشاركة على المنصات وهذا يعني عائدات إعلانية أقل. يجب أيضاً معالجة التضخيم الخوارزمي؛ أي عندما تروج المنصات للمحتوى الأكثر جذباً للانتباه. من أجل الحد من وصول وفعالية حسابات الروبوتات الذكية المتطرفة. يجب الضغط على المنصات لتسهيل إيقاف تشغيل الخوارزميات، وبالتالي توفير تجربة إبحار عبر الإنترنت خالية من المحتوى المروج والمقترح كإعداد افتراضي، في حين أن الأمر في الوقت الحالي هو العكس.
في حالة شركات التكنولوجيا الكبرى، فإن نموذج العمل هو المشكلة والخطوات التي يجب اتخاذها لمعالجة هذه المشكلة تتطلب إرادة سياسية، إما مفقودة حالياً أو مشوشة بسبب النوايا غير الواضحة أو فقط بسبب الافتقار إلى الفهم. لقد قدمت كل من المملكة المتحدة والاتحاد الأوربي مؤخراً تشريعات مصممة لمعالجة الأضرار عبر الإنترنت، وفي حين أن هذه التشريعات هي خطوات في الاتجاه الصحيح، إلا أن لها حدودها بسبب اعتمادها بشكل أساسي على المستخدمين الذين يجدون المحتوى المتطرف مشكلة ويبلغون عنه. لن يكون هذا هو الحال دائماً، خاصة مع المتعاطفين مع المحتوى المتطرف الذي يستهلكونه عبر الإنترنت. في حالة تشريع الاتحاد الأوربي، فإنه يركز في المقام الأول على المنصات التقنية الأكبر والمحتوى المتاح للجمهور، وفي حين يبدو ذلك معقولاً جداً في الظاهر، إلا أنه يترك فجوات حقيقية لأن العالم عبر الإنترنت منقسم بشدة وهناك العديد من المنصات والمنتديات الجديدة الناشئة التي لن تتأثر بالتشريع.
كما أن هذه التدابير التشريعية تحمل درجة من الغموض، حيث يمكن مناقشة مصطلحات مثل “التضليل” و”الضار” والطعن فيها. وهذا يفتح الباب أمام إساءة الاستخدام، حيث يمكن للحكومات أن تصنف المحتوى الذي لا تحبه على أنه “معلومات مضللة”، كما حدث بالفعل في مناسبات عديدة. وهذا سيؤدي إلى نشوء علاقة منفعة بين شركات التكنولوجيا الكبرى والحكومات، وهو ما سيفضي في النهاية إلى خنق حرية التعبير والمعارضة السياسية باسم معالجة التطرف، وسيتسبب على المدى البعيد في تشويه سمعة جهود مكافحة التطرف على نطاق واسع وتمكين السرديات المتطرفة.
إن التصدي للاستخدام المتطرف للذكاء الاصطناعي سيكون تحدّياً يصعب التغلب عليه بالنظر إلى الطريقة التي يتم بها تكوين المشهد السياسي والشركاتي حالياً. ومن المرجح أن يتفاقم هذا الأمر بسبب الانقسام الموجود بين مجموعات المجتمع المدني، التي غالباً ما تظل غارقة في مناقشات “الحرب الثقافية” وتفتقر إلى الحس السليم بالقيم اللازمة لمواجهة المتطرفين من جميع الأطياف. كما تستغل المنصات التقنية الكبرى هذا الانقسام والصراع الداخلي لصالحها، وهو أمر من المرجح أن تفعل مثله الجماعات المتطرفة التي تستخدم الذكاء الاصطناعي في المستقبل القريب.
يبدو أننا تقريباً غير مستعدين بشكل عملي لتبني المتطرفين للذكاء الاصطناعي. وبالتالي، علينا أن نتوقع أن يبدأ تأثيره على مجتمعاتنا قبل أن نتمكن من الاتفاق على طرق فعالة لمواجهته بوقت طويل. هناك الكثير من الإجراءات التي يمكن القيام بها، ولكن هذه الإجراءات لن يتم تنفيذها إلا بعد أن ندرك حجم وطبيعة التهديد. إن الأساليب الحالية لمعالجة التطرف عبر الإنترنت غير كافية على الإطلاق، ونحن بحاجة إلى أن نكون صادقين بشأن أسباب ذلك إذا كنا نريد بالفعل المضي قدماً في حماية مجتمعاتنا.
الكاتب: غفار حسين
الرابط:
https://extremism.gwu.edu/coming-ai-and-extremism-threat