أبعاد

الذكاء الاصطناعي في عالم السياسة.. كيف يؤثر على الديمقراطية؟

يعيش العالم اليوم عصر الذكاء الاصطناعي، بعدما أتاحت التطورات الهائلة في قوة الحوسبة وتوفّر البيانات وتقنيات النمذجة دخول هذه التكنولوجيا إلى مختلف القطاعات، بما في ذلك عالم السياسة وأبرز المفاهيم المرتبطة به.

وفي ظل تنامي قدرات الذكاء الاصطناعي، تقف الديمقراطية بين مخاطر حقيقية تهددها، وفرص واعدة يمكن أن تسهم في تعزيزها.

ووفق معجم “أوكسفورد”، يُستخدم مصطلح الديمقراطية للدلالة على مجموعة متنوعة من الأهداف والأفكار المتمايزة. وتُوصَف الديمقراطية بأنها مجموعة من المؤسسات السياسية أو مُثُل عليا للحكم الذاتي الجماعي. كما يمكن أن تختزل في مبدأ معياري للشرعية أو للعدالة، ويمكن أيضًا استخدامها للدلالة على موقف مساواتي.

تبلور دور الذكاء الاصطناعي في عمل الحكومات 

بدأ مجال الذكاء الاصطناعي يتبلور بعد وفاة رائده آلان تورينغ عام 1954. ورغم عدم الاعتراف بالذكاء الاصطناعي رسميًا بوصفه مجالًا مستقلًا حتى عام 1956، فإن مؤتمر هانوفر للذكاء الاصطناعي شكّل نقطة تحوّل في تطوير أبحاث هذا المجال، وفق دراسة نُشرت على موقع “ريسيرش غيت”.

في السنوات التي تلت ذلك، دمجت الحكومات الكبرى حول العالم أجهزة الكمبيوتر عالية الأداء في عملياتها. ولم يقتصر هذا التبنّي المبكر على القوى الكبرى، بل بدأت الدول الأصغر أيضًا في تجربة تقنيات الذكاء الاصطناعي. ولعل عبء العمل الضخم الواقع على عاتق الحكومات الكبرى كان السبب الأكثر إلحاحًا الذي دفعها إلى تطبيق أحدث التقنيات لتبسيط عملياتها، وفق ورقة بحثية نُشرت على موقع “سبرينجر” عام 2025.

ويؤثر الذكاء الاصطناعي على الحكومات والمواطنين في البلدان المنخفضة والمتوسطة الدخل في بُعدين متلازمين: فهو من جهة يوفر لهذه البلدان فوائد عملية وتسهم تطبيقاته في تحسين كفاءة الإدارة العامة، لكنه من جهة أخرى يخلّف عواقب سلبية على حياة المواطنين، سواء لجهة تعميق الفوارق أو توسيع أدوات السيطرة والرقابة.

هذا التداخل بين الفرص والمخاطر في علاقة الحكومات بالذكاء الاصطناعي يفتح مباشرة على سؤال الديمقراطية: كيف يمكن أن ينعكس هذا الواقع على طبيعة المشاركة السياسية وتمثيل المواطنين؟

يعتقد بعض الباحثين والفاعلين السياسيين أن الذكاء الاصطناعي قادر على تحويل الديمقراطية نحو الأفضل. وقد شهدت دول منها الدنمارك واليابان والولايات المتحدة والمملكة المتحدة بالفعل ترشّح شخصيات قائمة على الذكاء الاصطناعي للانتخابات أو تشكيل أحزاب سياسية يقودها هذا النوع من النماذج الخوارزمية، في مؤشر إلى محاولة استثمار هذه التكنولوجيا في إعادة ابتكار تمثيل الناخبين.

يلعب الذكاء الاصطناعي دورًا في التأثير على آراء الناخبين- غيتي

وفي المقابل، ينظر قادة المجمع الصناعي العسكري، وصقور السياسة، وداعمو شركات التكنولوجيا الكبرى إلى الذكاء الاصطناعي بوصفه أداة حربية بالغة الأهمية للفوز في سباق التسلح بعد الحرب الباردة بين الغرب والصين، وفق صحيفة “التايم”.

بهذا المعنى، يتقاطع الذكاء الاصطناعي مع السياسة ليس فقط في صندوق الاقتراع، بل أيضًا في موازين القوة والصراع الجيوسياسي، وهو ما ينعكس في نهاية المطاف على البيئة التي تعمل ضمنها الديمقراطيات.

الذكاء الاصطناعي وتعزيز مُثُل الديمقراطية

لا ينحصر تأثير الذكاء الاصطناعي في المخاطر فحسب، بل يمتد أيضًا إلى دعم بعض مُثُل الديمقراطية. فقد أكدت “منظمة العفو الدولية” في تقرير نُشر عام 2018 أن الذكاء الاصطناعي قادر على مساعدة المُثُل الديمقراطية الأساسية مثل الحق في المعرفة والحماية.

ويلعب الذكاء الاصطناعي دورًا مهمًا في تحسين الوصول إلى الخدمات الحكومية، وفق مؤسسة وستمنستر للديمقراطية، من خلال تبسيط الإجراءات، وتحسين الأنظمة الرقمية، وتسهيل تواصل المواطنين مع مؤسسات الدولة، كما يعزّز المشاركة العامة،

يساعد الذكاء الاصطناعي التوليدي المواطنين على التعبير عن آرائهم في عمليات التشاور العام، متجاوزين بذلك حواجز اللغة ومستوى التعليم والإعاقة، عبر أدوات الكتابة الآلية والترجمة والتكييف اللغوي للنصوص.

هل يات الذكاء الاصطناعي خطرا مهددا لمستقبل البشرية؟ – من الأرشيف

ووفق الورقة البحثية التي نشرها موقع “سبرينجر”، تعيق الأمية مسار الديمقراطية في البلدان الإفريقية وتلك المنخفضة والمتوسطة الدخل عمومًا، إذ تفتقر قطاعات كبيرة من السكان في هذه البلدان إلى القدرة على القراءة أو الكتابة، مما يحدّ من قدرتهم على الانخراط في الحياة السياسية والمشاركة النشطة مثل أولئك الذين يتمتعون بمستويات أعلى من التعليم.

ففي إفريقيا على سبيل المثال، تستخدم معظم الحكومات اللغات الاستعمارية كلغات رسمية. ومع ذلك، لا يستطيع التحدث بهذه اللغات الرسمية عادةً إلا المتعلمون. هنا يمكن للترجمة الآلية وتقنيات التعرّف على الصوت القائمة على الذكاء الاصطناعي أن تساعد الأشخاص غير المتعلمين من خلال ترجمة لغة الحكومة إلى لغاتهم المحلية، حتى يتمكنوا من فهم القضايا السياسية المطروحة والتفاعل معها.

هكذا، يصبح الذكاء الاصطناعي في بعض السياقات أداة لردم فجوة التمثيل بدل تعميقها.

الذكاء الاصطناعي وحرية الاختيار والمساواة السياسية

مع ذلك، لا يتوقف تأثير الذكاء الاصطناعي عند حدود تسهيل الوصول والمشاركة، بل يطال مكونات الديمقراطية ذاتها، إذ تتأثر مختلف عناصر النظام الديمقراطي بالأدوات المرتبطة بالذكاء الاصطناعي، كما تؤثر هذه الأدوات في بعض الأسس الجوهرية مثل الحكم الذاتي والمساواة والمنافسة السياسية.

ما بين خوارزميات تستهدف الناخبين بدقة، وتقنيات تزييف عميق تشوّش الحقيقة، تدخل الديمقراطية سباقًا صعبًا مع الزمن لتنظيم الذكاء الاصطناعي بدل الخضوع له

ويُشكّل الذكاء الاصطناعي تهديدًا مباشرًا لحرية الاختيار؛ فالتعرّض المستمر للمعلومات المُقنعة، المصمَّمة بشكل شخصي استنادًا إلى بيانات الأفراد وسلوكهم، يمتلك القدرة على التأثير في قرارات الناس وتوجيههم نحو خيار معيّن من دون وعي كامل بهذا التأثير.

كما تظهر النية الإقناعية للذكاء الاصطناعي بوضوح في المجال السياسي، إذ تُوجَّه بعض الرسائل بشكل مُحكم لإقناع الرأي العام بالتصويت لسياسي معيّن أو قبول سياسة حكومية بعينها، مستفيدة من أدوات الاستهداف الدقيق للفئات الاجتماعية.

ويعيق الذكاء الاصطناعي أيضًا الحق في المساواة في بعض المجتمعات، ولا سيما الحق في المشاركة والتمثيل. فاعتماده على مجموعات بيانات ضخمة وتاريخية لتكوين تنبؤات يمكن أن يكون تمييزيًا، إذ يعيد إنتاج الانحيازات البنيوية القائمة أصلًا في المجتمع، بدل تصحيحها، فينعكس ذلك على فرص بعض الفئات في الولوج إلى الفضاء العام أو الظهور في المشهد السياسي.

الذكاء الاصطناعي أداة انتخابية 

على المستوى العملي للانتخابات، لا تقتصر آثار الذكاء الاصطناعي على تشكيل الرأي العام، بل تمتد إلى بنية الحملات الانتخابية نفسها. فوفق مقال نُشر في موقع “بروكنغز” عام 2023، يُغيّر الذكاء الاصطناعي طريقة إدارة المرشحين لحملاتهم الانتخابية في الولايات المتحدة وفي ديمقراطيات أخرى حول العالم.

تعيد التقنيات الجديدة صياغة كيفية حصول الناخبين على المعلومات المتعلقة بالمرشحين والقضايا المطروحة وكيفية استهلاكهم لها. وتمثّل هذه التحولات فرصًا ومخاطر في كل مرحلة من مراحل العملية الانتخابية التي تسبق يوم الاقتراع. فمن جهة، يمكن تحسين استهداف الناخبين بالمعلومات ذات الصلة بهم، لكن من جهة أخرى يمكن تعزيز فقاعات المعلومات المسبقة وتعميق الانقسام داخل المجتمع.

كما يساعد الذكاء الاصطناعي في الإشراف على الانتخابات ذاتها. ويمكنه تحسين عمليات إدارتها لجعلها أكثر كفاءة وموثوقية وأمانًا، من خلال تحديد الأخطاء في قوائم الناخبين وآلات التصويت، والحد من احتمالات الاحتيال أو الحرمان من حق التصويت.

ويمكن لأجهزة فرز الأصوات المدعومة بالذكاء الاصطناعي مسح بطاقات الاقتراع الورقية بسرعة أكبر من موظفي مراكز الاقتراع، مما يقلّل الوقت اللازم للإبلاغ عن نتائج الانتخابات أو إعادة فرز الأصوات، ويقلّل بالتالي احتمالات الاحتيال والشكوك بشأن شفافية النتائج.

هنا يعود الذكاء الاصطناعي ليقدَّم كأداة لتعزيز الثقة في العملية الانتخابية إذا استُخدم ضمن إطار شفاف وخاضع للرقابة.

الذكاء الاصطناعي وتعزيز تكافؤ الفرص

إلى جانب إدارة الحملات والانتخابات، يمتد تأثير الذكاء الاصطناعي إلى مسألة تكافؤ الفرص في الترشح والمنافسة. فبحسب موقع “بروكنغ”، يمكن لأدوات الذكاء الاصطناعي أن تُخفّض العوائق المالية أمام دخول المرشحين الجدد أو الذين يعانون من نقص التمويل إلى السباق الانتخابي، إذ تتيح هذه الأدوات إعداد مواد تواصلية وحملات رقمية بتكاليف أقل مما كان يتطلبه الأمر في السابق.

ويمكن لآليات جمع التبرعات الرقمية أن تستفيد من تبسيط مدعوم بالذكاء الاصطناعي، من خلال أتمتة التواصل مع المتبرعين وتحسين استهدافهم. كما قد يستفيد المرشحون من الإعلانات الموجّهة التي تصل بفعالية أكبر إلى الناخبين الذين لم يحسموا خياراتهم بعد، بما يسهم، نظريًا، في توعيتهم بالبرامج المطروحة وخياراتهم في صناديق الاقتراع.

لكنّ هذا النمط من الاستهداف نفسه يفتح الباب أمام إشكاليات أخلاقية تتعلق بحدود التأثير المشروع في سلوك الناخبين.

شكل تجريدي لشخصية ذكاء اصطناعي تحمل بطاقة اقتراع، يربط بصريًا بين التكنولوجيا والانتخابات – غيتي

خطاب الكراهية والأخبار المضللة

في موازاة هذه الاستخدامات “الإيجابية” المحتملة، يبرز وجه آخر للذكاء الاصطناعي في العملية الديمقراطية يتعلق بخطاب الكراهية والمعلومات المضللة. فمسؤولو إدارة الانتخابات يمكنهم استخدام الذكاء الاصطناعي بفعالية وشفافية لتتبع خطاب الكراهية الذي يرجّح كفة بعض المرشحين بشكل غير عادل ويؤثر في قرارات الناخبين، ثم الإبلاغ عنه واتخاذ إجراءات حياله.

لكن، على النقيض من ذلك، قد يُفاقم الذكاء الاصطناعي سيل المعلومات المضللة، وهو أمر شائع في مواسم الانتخابات. إذ يُزوّد الجهات الفاعلة بمجموعة من الأدوات الآلية منخفضة الكلفة نسبيًا، يمكن أن يستخدمها الخصوم السياسيون لإثارة الانقسام بين الناخبين، وتأجيج الاستقطاب الحاد، وزعزعة الاستقرار الداخلي.

وقد أدّت الروبوتات السياسية، وتقنيات التزييف العميق، والصور المُولّدة بواسطة الذكاء الاصطناعي إلى تشويش أنظمة المعلومات قبل الانتخابات في الديمقراطيات حول العالم، بحيث بات من الصعب أحيانًا على المواطنين التمييز بين المحتوى الحقيقي والمحتوى المصنّع.

الذكاء الاصطناعي في الديمقراطيات الهشّة والناشئة 

لا تتأثر جميع الديمقراطيات بالقدر نفسه. فوفق مؤسسة “وستمنستر للديمقراطية”، يهدد الذكاء الاصطناعي الديمقراطيات الأقل مرونة، حيث يُلاحَظ أن قدرته على تعزيز التضليل الإعلامي تكون أكبر في البلدان التي تعاني من انخفاض مستويات الثقافة الرقمية وضعف الصحافة في التصدي للأخبار الكاذبة.

كذلك قد تُصبح قدرات المراقبة مغرية بشكل متزايد للحكومات في الديمقراطيات الناشئة أو الهشّة التي تسعى إلى تعزيز سيطرتها على المجتمع. وتشير مؤسسة وستمنستر للديمقراطية إلى أن الحكومات الإفريقية تنفق أكثر من مليار دولار على تكنولوجيا المراقبة، وتذكر أن تقارير عدة تفيد بأن الشركات الصينية تُورّد أدوات المراقبة إلى 63 دولة حول العالم.

وهكذا يتحول الذكاء الاصطناعي إلى أداة محتملة لترسيخ السلطوية بدل توسيع هوامش الحرية.

التزييف العميق وتهديد شرعية الانتخابات

يُعتبر التزييف العميق أحد أبرز تجليات هذا الخطر. فهو يترك أثرًا أكبر في الديمقراطيات الهشّة والبلدان التي تعاني من الحروب وعدم الاستقرار، رغم أن فكرة التلاعب بالصور والمحتوى ليست جديدة. وتشير صحيفة “التايم” إلى أن الزعيم السوفييتي جوزيف ستالين قام بمسح أعدائه من الصور في خمسينيات القرن الماضي، وأن مصور الحرب الأهلية الأميركية ألكسندر غاردنر صوّر مشاهد معارك “مركّبة” ومؤثرة قبل أكثر من قرن.

وبحسب مؤسسة كارنيغي للسلام الدولي، تم منذ عام 2022 إنشاء أكثر من 15 مليار صورة باستخدام خوارزميات تحويل النص إلى صورة. وقد لعبت نماذج الذكاء الاصطناعي التوليدية دورًا في السباق الرئاسي الأميركي لعام 2024، حيث غمرت الصور المزيفة والتزييفات العميقة التي أُنتِجت بواسطة الذكاء الاصطناعي منصات التواصل الاجتماعي.

مشاهد غير حقيقية لاعتقال دونالد ترمب تثير الجدل.. هل يزيد الذكاء الاصطناعي من خطورة الأخبار الكاذبة؟ – من الأرشيف

وبالتالي، من المرجّح أن يعتمد تأثير نماذج الذكاء الاصطناعي التوليدية على كيفية استخدامها من قِبل المعارضين السياسيين، وعلى طريقة عرضها وتدويرها عبر وسائل التواصل الاجتماعي، أي على كيفية إدخالها في بيئة معلومات معقّدة أصلًا، حيث تؤثر متغيرات عديدة في كيفية استقبال المحتوى المُولَّد.

وبينما يرفض بعض المستخدمين هذا المحتوى باعتباره شكلًا آخر من أشكال السخرية السياسية، فإن تدفق المعلومات الكاذبة والمضلِّلة المُولّدة بواسطة الذكاء الاصطناعي يُتوقّع أن يزيد من ارتباك الناخبين، ويخلق تصورات خاطئة عن المرشحين، ويغذي السخرية واللا ثقة تجاه العملية الانتخابية برمّتها.

علاقة الذكاء الاصطناعي بالديمقراطية ليست أحادية الاتجاه؛ فبينما يحمل الذكاء الاصطناعي إمكانات كبيرة لتعزيز المشاركة والنزاهة والحوكمة، فإنه في الوقت نفسه يضع تهديدات حقيقية أمام القيم والممارسات الديمقراطية.

وتواجه السياسيات، على وجه الخصوص، تهديدًا أكبر بكثير من التزييف العميق مقارنةً بنظرائهن من الرجال، بسبب التضليل الجندري، والاستهداف الجنسي، والتحيزات المجتمعية، مما يضخّم الضرر الذي يلحق بالسمعة، ويزيد من احتمالات التعرّض للتحرش عبر الإنترنت، ويعمّق الأثر العاطفي، بما يقوّض ثقة الجمهور في القيادة النسائية.

يتمتع الذكاء الاصطناعي بإمكانيات كبيرة للتمكين، لكنه يواجه في الوقت نفسه مخاطر التخريب لصالح القلّة. كما أن الاستيلاء المحتمل على تقنيات الذكاء الاصطناعي من قبل عدد محدود من الشركات القوية يفاقم مخاطرها على الديمقراطية، إذ يتركز النفوذ التكنولوجي والاقتصادي في أيدي فاعلين قلائل.

توصيات اليونسكو لتنظيم الذكاء الاصطناعي وحماية الديمقراطية

ومع الإقرار بتأثير الذكاء الاصطناعي على الديمقراطية، تُقدّم منظمة اليونيسكو عددًا من التوصيات في هذا المجال في ورقة نُشرت عام 2024، في محاولة لوضع إطار يحدّ من المخاطر ويُعظّم الفرص:

  • التعليم والتوعية: ينبغي على الدول أن تضمن خطابًا متوازنًا واستباقيًا بشأن الذكاء الاصطناعي، يتيح للمواطنين فهم التأثيرات الحقيقية للتحولات التكنولوجية، والشعور بأن سلطاتهم تحميهم وتدافع عن مصالحهم.

  • التنظيم والتشريعات: في حين يجب أن تحترم حوكمة التكنولوجيا منطقها الداخلي، فإنه لا ينبغي التقليل من قدرات البشر ومسؤولياتهم في إدارة الحكم الديمقراطي.

  • الدور البرلماني الاستشرافي: ينبغي للجان البرلمانية المعنية بالمستقبل أن تنخرط في عمل استشرافي لتجنّب التقادم المبكر للتشريعات المتعلقة بالذكاء الاصطناعي.

  • مقاربة البُنى التكنولوجية سياسيًا: يجب تناول البُنى التكنولوجية من منظور سياسي لفهم ديناميكيات القوة التي تولّدها وتأثيرها في الديمقراطية.

  • توجيه الذكاء الاصطناعي نحو الصالح العام: ينبغي أن تضمن الدول أن تُنظَّم قوة الذكاء الاصطناعي وتُستخدم من أجل “الصالح العام”، وفق مبادئ إنسانية مثل التنوع والمساواة والإدماج، المكرَّسة في حماية حقوق الإنسان والديمقراطية وسيادة القانون.

  • آليات رقابة مستقلة: وضع آليات رقابة مستقلة تضمن الامتثال الفعّال والمساءلة الحقيقية.

وفي هذا السياق الأوسع من محاولة ضبط الذكاء الاصطناعي ديمقراطيًا، بدأت الحكومات في تنظيم شركات التكنولوجيا الكبرى التي تُطوّر وتُسوّق هذه التقنيات. ففي عام 2024، أقرّ الاتحاد الأوروبي أول لائحة شاملة لتنظيم تكنولوجيا الذكاء الاصطناعي: “قانون الاتحاد الأوروبي للذكاء الاصطناعي”.

في النتيجة، الواضح أنّ علاقة الذكاء الاصطناعي بالديمقراطية ليست أحادية الاتجاه؛ فبينما يحمل الذكاء الاصطناعي إمكانات كبيرة لتعزيز المشاركة والنزاهة والحوكمة، فإنه في الوقت نفسه يضع تهديدات حقيقية أمام القيم والممارسات الديمقراطية. وبالتالي، فإنّ الذكاء الاصطناعي يمكن أن يكون تهديدًا وفرصة في آنٍ واحد، وذ بناءً على كيفية استخدامها، وطبيعة الأطر التنظيمية التي تحكمها، ودرجة وعي المجتمعات بمخاطرها وطرق توجيهها لخدمة الإنسان والديمقراطية.

hg`;hx hghw'khud td uhgl hgsdhsm>> ;dt dcev ugn hg]dlrvh'dm?

مقالات ذات صلة

زر الذهاب إلى الأعلى

اللهم إنك عفوٌ تحب العفو فاعفُ عني