الذكاء الاصطناعي وتأثيره على الانتخابات الأميركية: بين الشفافية والتلاعب

By العربية الآن

بين التلاعب والشفافية: تأثير الذكاء الاصطناعي على الانتخابات الأميركية

مجموعة من الأشخاص في المكتب ومفهوم البيانات الرقمية.
تشير الآراء التكنولوجية إلى أن عام 2024 لم يكن استثنائيا في استخدام الذكاء الاصطناعي في السياسة (شترستوك)
تقرع الانتخابات الأميركية طبولها، وتتعزز المنافسة بين المرشحين في سباق محموم للفوز برئاسة البيت الأبيض. وفي ظل الثورة التكنولوجية، أصبحت الحملات الانتخابية تتطلب استراتيجيات معتمدة على الذكاء الاصطناعي كوسيلة رئيسية في السوق الدعائي.

ومع سمو فوائد التقدم التقني السريع، يثير الذكاء الاصطناعي المخاوف من التلاعب ونشر المعلومات المضللة، مما يهدد نزاهة العملية الانتخابية ويثير قلقا حقيقيا حول الديمقراطية الأميركية.

ذعر المعلومات المضللة

مع دخولنا في الحملة الانتخابية لعام 2024، حذر المراقبون والتقنيون من إمكانية تسبب الذكاء الاصطناعي في فوضى كبيرة عبر نشر معلومات مضللة وقوائم إعلانات سياسية موجهة. حيث تظهر الاستطلاعات أن 39% من الناس يتوقعون أن يستخدم الذكاء الاصطناعي لأغراض سلبية خلال الحملة، مقابل 5% فقط يعتقدون أنه سيستخدم لأي أغراض إيجابية.

ونحو 57% من البالغين في الولايات المتحدة، من بينهم أعداد متساوية تقريبا من الجمهوريين والديمقراطيين، أعربوا عن قلقهم البالغ من إمكانية استخدام الذكاء الاصطناعي في نشر معلومات زائفة تستهدف التأثير على الناخبين.

مع اقتراب موعد الانتخابات، يبدو أن المخاوف من تأثير الذكاء الاصطناعي على نتائج الانتخابات قد تكون مبالغ فيها. حيث أفادت الاستخبارات الأميركية في سبتمبر أن الأطراف الأجنبية مثل روسيا تستخدم الذكاء الاصطناعي ولكن ليس بشكل ثوري.

الحصاد التكنولوجي: عام 2024

يعترف الخبراء أن عام 2024 لم يشهد استخداما بارزا للذكاء الاصطناعي في السياسة. وأشارت بيتسي هوفر من صندوق “هايير غراوند” إلى أن هناك حملات تستخدم الذكاء الاصطناعي، لكن تأثيرها لم يصل إلى المستوى المتوقع.

ومع ذلك، يحذر الباحثون من تأثير الذكاء الاصطناعي الذي لا يزال غير مفهوم تاريخيا، خاصة مع استخدامه على منصات الاتصال الخاصة. ويتوقع البعض أن تتزايد التأثيرات في دورات الانتخابات المقبلة مع تقدم التكنولوجيا.

ويقول سوني غاندي، نائب رئيس الشؤون السياسية في “إنكود جاستس”، “أنا متأكد أنه في السنة أو السنتين القادمتين ستتحسن نماذج الذكاء الاصطناعي، وهو ما يثير القلق بشأن الانتخابات القادمة”.

مشروع قاعدة البيانات للحوادث

باحثون من جامعة “بوردو” أطلقوا مشروعا لتوثيق حوادث التزييف العميق السياسي، حيث سجلوا أكثر من 500 حادثة حتى الآن.

المراقبون والتقنيون حذروا من أن الذكاء الاصطناعي يمكن أن يسبب الفوضى في الانتخابات الأميركية لعام 2024 (شترستوك)

تأثير الذكاء الاصطناعي على الانتخابات

تشير الدراسات إلى أن معظم مقاطع الفيديو التي تُعتبر “تزييفًا عميقًا” لا تُستخدم بالضرورة لخداع الناس، بل تحمل غالبًا طابع السخرية أو التعليم أو التعليق السياسي. كما ذكرت كريستينا ووكر، باحثة في المشروع، فإن معنى هذه الفيديوهات يمكن أن يتغير مع مرورها عبر دوائر سياسية متنوعة. فهي تعتبر أن إعادة مشاركة المحتوى بعد عدة تغريدات قد يحوّل رسالة الفيديو من تزييف إلى شيء يُعتقد به على أنه حقيقة.

تصعيد التزييف العميق

يرى دانييل شيف، باحث آخر في المشروع، أن العديد من مقاطع التزييف العميق قد تكون مصممة لتعزيز آراء أولئك الذين يميلون بالفعل إلى تصديقها.

وفي تحديث لشركة ميتا في أغسطس/آب، تم الإشارة إلى أن التطبيقات المدعومة بالذكاء الاصطناعي لم تؤدِ إلا إلى تحسين طفيف في الإنتاجية وتأثيرها على الحملات، مما يدل على أن الأساليب التي تتبعها الشركات الكبرى للحد من انتشارها كانت فعّالة نسبياً.

تحديات قياس التأثير

تشير ميا هوفمان، زميلة بحث في مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون، إلى صعوبة قياس تأثير الذكاء الاصطناعي على الناخبين بسبب تقليل كمية البيانات التي توفرها الشركات الكبرى. حيث أوقفت شركة “إيكس” الوصول المجاني إلى واجهة برمجة التطبيقات الخاصة بها، وأغلقت ميتا مؤخرًا خدمة “كراودتانجل” مما زاد من صعوبة تتبع المعلومات المضللة عبر منصاتها.

تصاعد المعلومات المضللة في المراسلات المغلقة

تشعر هوفمان بالقلق من أن المعلومات المضللة التي تُنتج باستخدام الذكاء الاصطناعي تتزايد على منصات المراسلة مثل واتساب، التي تكتسب شعبية خاصة بين المجتمعات المهاجرة في الولايات المتحدة. وتضيف أنه من الممكن أن يتم استخدام الذكاء الاصطناعي للتأثير في الناخبين في الولايات المتأرجحة، ولكن فعالية هذه الحملات قد لا تتضح إلا بعد الانتخابات.

الذكاء الاصطناعي في السياسة العالمية

أفادت مجلة “تايم” أن الذكاء الاصطناعي له تأثيرات واضحة على السياسة العالمية، حيث استخدم المرشحون في دول جنوب آسيا تقنيات الذكاء الاصطناعي للإغراق بمعلومات مزيفة. كما تم نشر مقاطع فيديو مزيفة في سياقات متعددة، مثل الحادث الذي تضمن عمدة لندن.

في الولايات المتحدة، وقعت أحداث مشابهة في نيوهامشير، حيث تم إرسال رسائل صوتية مزيفة تحث الناخبين على عدم التصويت. وتُعتبر هذه الرسائل وسيلة تلاعب خطيرة تهدف إلى التأثير في نتائج الانتخابات.

استخدام الذكاء الاصطناعي لأغراض خبيثة

أصدرت وزارة العدل الأميركية تصريحات تفيد بأنها أعاقت حملة معروفة باسم “دوبلغانغر” تهدف لنشر دعاية ترعاها الحكومة الروسية. وضعت هذه الحملات الهادفة إلى تضخيم المخاوف بشأن الهجرة تحت المراقبة، لكن ما زالت التحديات موجودة في نشر الفيديوهات المعدلة.

مستقبل الذكاء الاصطناعي في الانتخابات

تكشف التقارير عن أن هناك مواجهة مستمرة بين الفاعلين الأجانب الذين يسعون لاستخدام الذكاء الاصطناعي في حملات التلاعب والتضليل. ويبدو أن هذه الجهود تتطلب تجاوز قيود أدوات الذكاء الاصطناعي، مما يكشف عن تعقيدات إضافية في مراقبة الأمن السيبراني والتأكد من نزاهة العملية الانتخابية.## الذكاء الاصطناعي وتأثيره على الانتخابات

وفقًا لوكالة “سيزا” (CISA) الأميركية، يُعد الذكاء الاصطناعي التوليدي نوعًا من البرمجيات التي تستخدم نماذج إحصائية لاستيعاب الأنماط والهياكل الموجودة في البيانات الحالية، مما يتيح إعادة تنظيم تلك البيانات أو إنشاء محتوى جديد. هذا المحتوى يمكن أن يتنوع من كتابة أكواد الحاسوب إلى تأليف نصوص جديدة، وكذلك تطوير وسائط تركيبية مثل مقاطع الفيديو والصور والأصوات.

تؤكد “سيزا” على ضرورة فهم مسؤولي الانتخابات لكيفية تأثير هذه القدرات على أمن ونزاهة البنية التحتية للانتخابات. ومع أن الذكاء الاصطناعي يقدم فرصًا لتعزيز الإنتاجية وتحسين إدارة الانتخابات، فإنه أيضًا قد يؤدي إلى أضرار أكبر إذا ما استُخدم من قبل جهات خبيثة.

المخاطر المحتملة

تشير المعلومات إلى أنه فيما يتعلق بانتخابات عام 2024، من غير المتوقع أن تُحدث قدرات الذكاء الاصطناعي التوليدي مخاطر جديدة، لكنها قد تضخم المشاكل الحالية المتعلقة بأمن الانتخابات.

استخدام الأنظمة الخبيثة للذكاء الاصطناعي

قد تستفيد الجهات الخبيثة من الذكاء الاصطناعي التوليدي، حيث تشمل الأمثلة الموضحة في التقرير:

١- الذكاء الاصطناعي لتوليد الفيديو:
من النص إلى الفيديو: يمكن لجهة فاعلة من دولة أجنبية استخدام برامج تحويل النص إلى فيديو لإنشاء مقاطع فيديو مزيفة لمذيعين حقيقيين، مما يؤدي إلى نشر معلومات مضللة كجزء من جهود التأثير.
فيديوهات التزييف العميق: يستغل مجرمو الإنترنت مقاطع الفيديو العميقة المزيفة الخاصة بالمشاهير لخداع الجمهور وتحفيزه على الوقوع في فخ الاحتيال.

٢- الذكاء الاصطناعي لتوليد الصورة:
من النص إلى الصورة: تستخدم الجهات الفاعلة من دول أجنبية مولدات النص إلى صورة لإنشاء صور زائفة ومضللة، التي تؤثر على تصور الجمهور خلال الأزمات.
صور معدلة بالذكاء الاصطناعي: تقوم هذه الجهات بإنشاء صور تركيبية لملفات تعريف حسابات مزيفة وبتعديل الصور الأصلية لدعم سرد معين.

٣- الذكاء الاصطناعي لتوليد الصوت:
من النص إلى الصوت: يقوم مجرمو الإنترنت باستخدام الصوت الناتج عن الذكاء الاصطناعي لانتحال شخصيات بعض الموظفين، مما يتيح لهم الوصول إلى معلومات حساسة.
استنساخ الصوت: يتم استخدام تقنيات استنساخ الصوت لخلق انطباع زائف عن ضحايا غير مشككين ضمن حملات الاحتيال.

٤- الذكاء الاصطناعي لتوليد النص:
من النص إلى النص (نماذج اللغة الكبيرة): تستخدم الجماعات الأجنبية نصوصًا مولدة لاستهداف اللغة الإنجليزية، مما يعزز من عمليات التأثير الأجنبي بتكاليف منخفضة.
– تستغل روبوتات الدردشة المعززة بالذكاء الاصطناعي في حملات التصيد والاحتيال المتقدمة.

تهديدات الهندسة الاجتماعية

تُعرف الهندسة الاجتماعية بأنها تقنية تلاعب تستفيد من الأخطاء البشرية للحصول على معلومات خاصة. إذ يعتمد المهاجمون على فهم كيفية تفكير الناس وتصرفهم لتسهيل عمليات الاحتيال.

تستهدف هجمات الهندسة الاجتماعية سلوك المستخدمين، مستغلة نقص المعلومات لدى الضحايا الذين قد لا يدركون القيمة الحقيقية للبيانات الشخصية الخاصة بهم.

الأهداف المحتملة للاستخدام الضار للذكاء الاصطناعي المتعلق بالانتخابات

يمكن للجهات الفاعلة الخبيثة استخدام أدوات الذكاء الاصطناعي للتقليل من التكاليف وزيادة حجم الحوادث الإلكترونية، بالإضافة إلى تنفيذ عمليات تأثير أجنبي. هذه الأدوات قد تسمح بإنتاج برمجيات ضارة يمكن أن تتجاوز الدفاعات السيبرانية، وزيادة فعالية هجمات الحجب الموزعة، مما يؤثر على المواقع ذات الصلة بالانتخابات.


يمكن لجهة فاعلة من دولة أجنبية استخدام برنامج تحويل النص إلى فيديو لنشر المعلومات المضللة كجزء من عملية تأثير أجنبية (رويترز)#### تأثير الذكاء الاصطناعي على العمليات الانتخابية

تسليط الضوء على استخدام تقنيات الذكاء الاصطناعي في الانتخابات يعتبر أمراً ملحاً في الوقت الراهن. فهذا المجال يفتح أبواباً جديدة لنشر المعلومات المضللة حول مواعيد، وطرق، وأماكن التصويت، وذلك عبر وسائل مثل البريد الإلكتروني والرسائل النصية ووسائل التواصل الاجتماعي. كما أن استخدام المحتويات المنتجة بالذكاء الاصطناعي قد يزيد من فعالية وتأثير الحملات التي تستهدف الانتخابات.

من الجوانب المثيرة للقلق أيضاً، هو إمكانية استخدام الذكاء الاصطناعي لتوليد سجلات انتخابية زائفة، مما يثير تساؤلات حول نزاهة العملية الانتخابية.

تهديدات مكاتب الانتخابات

هناك أيضاً مخاطر تتعرض لها مكاتب الانتخابات، حيث يمكن استغلال تقنيات استنساخ الصوت لانتحال شخصيات موظفيها، مما يتيح الوصول لمعلومات حساسة. بالإضافة إلى ذلك، فإن الهجمات التصيدية التي يُمكن تنفيذها باستخدام أدوات الذكاء الاصطناعي تنتج عنها آثار مقلقة على مسؤولي الانتخابات.

الوضع متفاقم مع إمكانية تطوير برمجيات خبيثة محسنة، تستهدف مراكز العمليات الانتخابية، مما يزيد من تعرضها للاختراقات.

تهديدات للمسؤولين الانتخابيين

يمكن أيضاً توظيف المحتوى الناتج عن الذكاء الاصطناعي لمضايقة مسؤولي الانتخابات عبر إنتاج مقاطع فيديو مزيفة، أو انتحال شخصياتهم ونشر معلومات مضللة حول نزاهة العملية الانتخابية.

وبالإضافة إلى ذلك، يمكن أن يعزز الذكاء الاصطناعي استغلال معلومات عامة لاستهداف المسؤولين الانتخابيين بهجمات “دوكينغ”، والتي تعني الكشف عن معلومات تعريفية شخصية ونشرها بشكل مضر.

مخاطر الموردين الانتخابيين

على صعيد الموردين، فإن استخدام الذكاء الاصطناعي قد يزيد من مخاطر التصيد الاحتيالي والهندسة الاجتماعية. كما يمكن أن يؤدي إنتاج فيديو مزيف لمورد انتخابي يتحدث بشكل خاطئ عن تقنيات الانتخابات إلى إثارة شكوك حول أمن وسلامة العمليات.

ضرورة الاستعداد لمواجهة التهديدات

على الرغم من التحديات المتزايدة التي يفرضها الذكاء الاصطناعي، فإن مسؤولي الانتخابات يمتلكون الخبرة اللازمة للتخفيف من هذه المخاطر. فهم متعودون على أنواع معينة من الاحتيال الإلكتروني والمخاطر الأخرى التي قد تتفاقم.

مع تصاعد هذه التهديدات، يبقى التساؤل: هل سيتمكن الفائز في الانتخابات الأميركية من الحكم دون مواجهة تهديدات التكنولوجيا المتطورة؟ وهل ستكون هناك تدابير فعالة لضمان سلامة الديمقراطية في عصر الذكاء الاصطناعي؟

المصدر: الجزيرة

أضف تعليق

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.

Exit mobile version