الإرباك المُحتمل: ما مخاطر استخدام الذكاء الاصطناعي كـ “فاعل سياسي” في الساحة الدولية؟

من أداة تقنية إلى لاعب على رقعة الشطرنج السياسي

لم يعد الذكاء الاصطناعي (AI) مجرد تكنولوجيا مساعدة على تحسين الكفاءة أو خفض التكاليف، بل تحوّل إلى عنصر محوري يعيد تشكيل أنماط اتخاذ القرار، أنظمة الحكم، وصياغة توازنات القوى العالمية. ففي الأمس، كانت التكنولوجيا تُوظَّف لخدمة الأجندات السياسية، أما اليوم، فقد أصبحت التكنولوجيا—وفي مقدمتها الذكاء الاصطناعي—تملك قدرة مستقلة على توجيه السياسة، سواء من خلال أدوات التنبؤ وصناعة القرار أو عبر السيطرة على تدفقات المعلومات وتوجيه الرأي العام.

تأسيسا على ما سبق، يحاول هذا التحليل الإجابة عن سؤال، وهو: كيف تحوّل الذكاء الاصطناعي إلى “فاعل سياسي”، وتُحلل الآثار المترتبة على موازين القوى؟، كيف تتكيف النظم السياسية المختلفة مع هذا التحول البنيوي؟ ومن ثم تقدم سيناريوهات مستقبلية محتملة.

إعادة تعريف السياسة:

في النظم التقليدية، يُنظر إلى السياسة باعتبارها حقلًا من الفعل البشري تحكمه النية، المصالح، والتحالفات. لكن الذكاء الاصطناعي أحدث قطيعة معرفية مع هذا المفهوم. فقد أصبحت الخوارزميات تُنتج قرارات وتوجهات قد تتفوق على الإنسان في سرعة المعالجة ودقة التقدير. ويعد من أبرز الأمثلة على ما سبق، هي تجربة كامبريدج أناليتيكا، حيث استُخدمت خوارزميات تحليل البيانات لتوجيه الحملات الانتخابية بشكل فردي لكل ناخب. كما أن بعض الحكومات مثل سنغافورة وإستونيا بدأت في استخدام نظم AI ضمن “الحوكمة الخوارزمية”، في إدارة الموارد وتقييم السياسات. وعليه، قد يعيد هذا يعيد تشكيل العلاقة بين المواطن والدولة، ويطرح أسئلة جديدة حول الشفافية والشرعية السياسية.

أدوات الذكاء الاصطناعي كوسائل للنفوذ السياسي:

هناك العديد من أدوات الذكاء الاصطناعي يتم استخدامها كوسائل للنفوذ السياسي، حيث بات الذكاء الاصطناعي يُستخدم كأداة قوة ناعمة وصلبة معًا، ويمكن توضح هذا على النحو التالي:

(&) الولايات المتحدة: استخدمت حملة ترامب 2016 أدوات AI لتحليل ميول الناخبين وتخصيص الإعلانات.

(&) الصين: يُستخدم نظام “سكور المواطن” لتقييم السلوك وربطه بالمكافآت أو العقوبات.

(&) حالات أخرى: كما تنتشر أدوات التزييف العميق (Deepfake) لتغيير محتوى الفيديوهات والخطابات، مما يهدد موثوقية المعلومة.

وعلى ما سبق، يمكن القول إن التحكم السياسي، بات يتم عبر “الهندسة النفسية الرقمية”، وتوجيه السلوك السياسي في الخفاء، لا من خلال المنابر التقليدية.

الذكاء الاصطناعي والصراع الجيوسياسي:

وفقا للخبراء والمتخصصين لم يعد السباق على الذكاء الاصطناعي، سباقًا اقتصاديًا فقط، بل أصبح صراعًا سياديًا، ويمكن توضيح ذلك كما يلي:

(-) الولايات المتحدة، حيث تراهن أمريكا على شركاتها العملاقة (Google, Microsoft, OpenAI) لقيادة السباق.

(-) الصين، حيث تقوم الصين بدمج AI في خططها القومية كجزء من “صنع في الصين 2025”.

(-) أما إسرائيل، فهي توظف الذكاء الاصطناعي في الأمن السيبراني والاستشراف الاستخباراتي.

(-) الاتحاد الأوروبي، وتركز دول أوروبا على الحوكمة الأخلاقية والتنظيم القانوني بدلاً من الهيمنة التقنية.

(-) أما الدول النامية، فتواجه تحديًا مضاعفًا، وذلك يرجع إلى نقص البنية الرقمية وغياب السيادة على البيانات.

اتجاهات النخبة الرقمية:

قراءة وتحليل المحتويات الرقمية خلال الفترة الأخيرة يشير إلى حدوث تحوّل الذكاء الاصطناعي إلى قوة في يد نخب غير منتخبة، مثل مطوري الخوارزميات، ومهندسي البيانات، وشركات التقنية الكبرى، ويمكن توضيح ذلك على النحو التالي:

(*) حدود التأثير على سلطة اتخاذ القرار: بدأت سلطة اتخاذ القرار تنتقل من الحكومات إلى “الأنظمة الذكية”.

(*) التداخل بين إرادة النخبة وزحام البيانات: تتعرض الديمقراطية التمثيلية لضغط كبير، حيث لم تعد إرادة الناخب وحدها من تقرر، بل البيانات التي تم جمعها عنه مسبقًا. وهو ما يطرح تساؤلات: هل يمكن محاسبة الخوارزميات؟ من يضع معايير العدالة والشفافية؟ وهل لا يزال للناخب صوت حقيقي في ظل هذا التوجيه الخفي؟

التأثير في  القرار العسكري والأمني:

خلال الفترة الأخيرة رصد العديد من الخبراء والمتخصصين أن الذكاء الاصطناعي دخل في عمق القرار الاستراتيجي، وأصبح عامل مؤثر في الصناعات العسكرية، وفي قرارات توظيفها، وبيعها جغرافيا، واستخدامها في كيفية التأثير على العدو، ويمكن توضيح ذلك على النحو التالي: 

(-) المعدات الحربية: تدار الطائرات بدون طيار (Drones) بأنظمة ذكية تتخذ قرارات هجومية آنية.

(-) التحليل العسكري: بات التحليل العسكري، وكشف ترتيبات المتحاربين، يُبنى على توقعات AI لساحات الصراع وتحرّكات الخصوم.

(-) الهجمات السيبرانية: تلاحظ في السنوات الأخيرة أن الهجمات السيبرانية تُنفذ وتُدار ذاتيًا، دون تدخل بشري مباشر.

(-) الردع بمختلف أنواعه: حدث تغير في طرق الردع التقليدي، واتجه المشهد الأمني نحو “الحرب الخوارزمية”.

نموذج موضح:

يعد النموذج الواضح على استخدام الذكاء الاصطناعي في الحروب، هو نموذج الحرب الروسية الأوكرانية، ويمكن توضيح ذلك على النحو التالي: 

(&) أوكرانيا،  استخدمت دولة أوكرانيا في حربها مع روسيا AI لتحليل صور الأقمار الصناعية وتوجيه الضربات العسكرية، كما اعتمدت هذه الدولة على خوارزميات لرصد الدعاية الروسية، وتوليد ردود رقمية مضادة.

(&) أما روسيا، فقد طورت أدوات هجومية سيبرانية تعتمد على AI لتعطيل نظم البنية التحتية. وعليه، تُظهر هذه الحرب كيف أصبح الذكاء الاصطناعي “جنديًا رقميًا” يُقاتل في الظل، ويشكّل إدراك الأطراف المعنية بالصراع.

سيناريوهات مستقبلية:

عدد من السيناريوهات، تتوقع حدود تداخل الذكاء الاصطناعي في الحياة بمختلف أبعادها، وكيفية تحول الذكاء الاصطناعي إلى فاعل سياسي مؤثر في صناعة القرار الاستراتيحي لبعض الدول، ويمكن تحديد ما سبق على النحو التالي:

(*) السيناريو الأول،- تموضع الدولة الذكية المركزية، حيث يُدار كل شيء عبر الذكاء الاصطناعي، مع كفاءة إدارية عالية، لكن مع مخاطر مركزية السلطة والمراقبة الشاملة.

(*) السيناريو الثاني،- الاتجاه نحو الديمقراطية الرقمية المعززة، يجري تخصيص السياسات حسب بيانات الأفراد، لكن تظل هناك مخاوف من تقويض تمثيل الإرادة الجماعية.

(*) السيناريو الثالث،- يدعم ما يعرف بالاستبداد الرقمي، وهنا تستخدم السلطة AI لمراقبة وتحليل سلوك كل مواطن، ومعاقبته رقميًا إن لزم.

(*) السيناريو الرابع،- يرجح التوازن الأخلاقي العالمي، حيث تنشأ تحالفات لوضع ضوابط مشتركة للاستخدام السياسي والتقني، تفرض الحوكمة على الجميع.

في النهاية، يمكن القول إنه بين السيادة والسيطرة الخوارزمية، يبدو أن الذكاء الاصطناعي سيُعيد تعريف من يحكم… وكيف يُحكم. فنحن أمام منعطف فارق في التاريخ السياسي العالمي. إما أن نخضع التكنولوجيا للسياسة، أو نُصبح خاضعين للبرمجة. وسيظل السؤال الأكبر مطروحًا، هو: هل السيادة الرقمية شرط لممارسة السياسة الحرة في المستقبل؟، كما أنه نظرًا لخطورة استخدامات الذكاء الاصطناعي في الحروب وغيرها من المؤثرات السلبية على البشرية، ننتهي إلى ثمة تحديات أخلاقية وسياسية، تواجه هذا الاستخدام تجعلنا نطرح مجموعة من التساؤلات، نحاول الإججابة عنها لاحقًا، هي: هل يُحاسب الذكاء الاصطناعي سياسيًا وأخلاقيًا؟، وكيف نمنع التمييز والتحيّزات الخوارزمية التي تُكرس التفرقة السياسية أو العرقية؟، وماذا عن استخدامه لقمع المعارضين أو تشكيل خطاب شمولي؟، في الهند مثلًا، استُخدمت أنظمة ذكاء اصطناعي في الانتخابات لتوجيه رسائل تحريضية طائفية مستندة لتحليل توجهات دينية وسياسية، مما أدى إلى موجة انقسام مجتمعي. محاولات أوروبا لصياغة “ميثاق أخلاقي للذكاء الاصطناعي” لا تزال دون قوة تنفيذية على المستوى العالمي.

وعلى ما سبق، ونتيجة مخاطر استخدام الذكاء الاصطناعي في القرار السياسي والاستراتيجي، نضع مجموعة من التوصيات، قد تساعد المستخدمين وغيرهم في التقليل من تأثيراته السلبية. فبالنسبة للدول النامية، من الضروري أن تقوم بالاستثمار العاجل في البنية الرقمية، كذلك تطوير تشريعات سيادية للذكاء الاصطناعي، ومنع التوظيف السياسي للتكنولوجيا دون رقابة. أما بالنسبة لمراكز الفكر، من الضروري أن تقوم بإنتاج تحليلات استراتيجية رقمية، كذلك ربط التحليل السياسي بعلم البيانات، بالإضافة إلى رصد التحولات السياسية المبكرة عبر أدوات ذكية. أما بالنسبة للمنظمات الدولية، يجب عليها الدفع باتجاه اتفاقية تنظيم دولي لاستخدامات الذكاء الاصطناعي في السياسة والأمن، كذلك دعم الشفافية والتقارير الدورية، و تمكين الدول الأضعف من اللحاق رقمياً.

إسلام خالد

مساعد رئيس المركز ، مستشار التكنولوجيا بالنقابة العامة للمحامين بجمهورية مصر العربية ، واستشاري امن المعلومات.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى