q
يشكل العام 2024 اختبارا مهما للسياسة في عصر الذكاء الاصطناعي إذ تُنظّم فيه انتخابات في بلدان تمثّل نصف سكان العالم بينما تساهم التكنولوجيا الحديثة في انتشار المعلومات المضللة بشكل هائل. التضليل الإعلامي أحد أكبر المخاطر على البشرية فالاستخدام الواسع النطاق للمعلومات الخاطئة والمضللة يقوّض شرعية الحكومات المنتخبة حديثًا...

مع إجراء انتخابات في دول مثل الولايات المتحدة والهند وإندونيسيا والمكسيك وتايوان، والتي يبلغ عدد سكانها نحو 4 مليارات نسمة في عام 2024، تظهر مخاوف جدية من إمكانية تأثير تقنيات الذكاء الاصطناعي على آراء الناخبين ونزاهة العملية الانتخابية برمتها.

ويشكل العام 2024 اختبارا مهما للسياسة في عصر الذكاء الاصطناعي إذ تُنظّم فيه انتخابات في بلدان تمثّل نصف سكان العالم بينما تساهم التكنولوجيا الحديثة في انتشار المعلومات المضللة بشكل هائل.

وقدّر المنتدى الاقتصادي العالمي أن يكون التضليل الإعلامي أحد أكبر المخاطر على البشرية في العامَين المقبلَين اللذين سيشهدان انتخابات مدعوّ إلى التصويت فيها نحو نصف سكان العالم ووسط ازدهار الذكاء الاصطناعي. فالاستخدام الواسع النطاق للمعلومات الخاطئة والمضللة وأدوات نشرها يمكن أن يقوّض شرعية الحكومات المنتخبة حديثًا.

وقد وصف العام 2024 بأنه "حاسم" بالنسبة للديموقراطية إذ تجري انتخابات في 60 دولة بينها الهند وجنوب إفريقيا وبريطانيا وإندونيسيا والولايات المتحدة، إضافة إلى الاتحاد الأوروبي.

وجرى بالفعل أول اختبار لكيفية الصمود في مواجهة عاصفة من المعلومات المضللة المعتمدة على الذكاء الاصطناعي.

انتخب التايوانيون لاي تشينغ تي رئيسا الأسبوع الماضي رغم حملة المعلومات المضللة الواسعة ضدّه والتي يشير خبراء بإصبع الاتهام فيها إلى الصين.

تعتبر بكين لاي انفصاليا خطيرا بسبب تأكيده المتكرر على استقلال تايوان وغصّت منصة تيك توك بنظريات المؤامرة والعبارات المسيئة له في الفترة التي سبقت الانتخابات.

وعثر فريق تقصي الحقائق في فرانس برس على عدة تسجيلات مصوّرة من هذا النوع كان مصدرها "دوين"، النسخة الصينية من التطبيق.

لكن ما زال يتعيّن معرفة الكيفية التي ستتطور من خلالها الأحداث في بلدان أخرى. يهدد الذكاء الاصطناعي التوليدي بمفاقمة الاستقطاب المتعمّق في الأساس وانعدام الثقة في الإعلام التقليدي.

والعام الماضي، كشفت صور مزيّفة لدونالد ترامب أثناء توقيفه وأخرى لإعلان جو بايدن عن تعبئة عامة لدعم أوكرانيا حد التقدّم الذي وصلت إليه هذه التكنولوجيا.

تختفي بشكل متسارع التفاصيل القليلة التي كان من الممكن كشف عمليات التزييف من خلالها مثل الأصابع مثلا التي يجد الذكاء الاصطناعي صعوبة بالتلاعب فيها، وهو ما يجعل آليات الرصد أقل قدرة على أداء مهامها. وبالتالي، تزداد المخاطر.

صنّف المنتدى الاقتصادي العالمي التضليل على أنه مصدر التهديد الأكبر على مدى العامين المقبلين.

وحذّر من أن تقويض شرعية الانتخابات قد يؤدي إلى نزاعات داخلية وأعمال إرهابية وحتى "انهيار الدولة" في أسوأ الحالات.

تلجأ مجموعات مرتبطة خصوصا بروسيا والصين وإيران إلى التضليل المعتمد على الذكاء الاصطناعي، سعيا لـ"تشكيل وعرقلة" الانتخابات في الدول الخصمة، وفق مجموعة التحليل Recorded Future (المستقبل المسجّل).

ولن تكون هذه المرة الأولى.

استنسخت "عملية دوبلغانغر" (الشبيه) التي أطلقت مطلع العام 2022 مؤسسات إعلامية وعامة معروفة لنشر مواقف داعمة لروسيا خصوصا في ما يتعلّق بأوكرانيا.

وأشارت السلطات الفرنسية وشركة "ميتا" المالكة لفيسبوك وواتساب وإنستغرام إلى تورّط الكرملين.

في المقابل، يمكن أيضا للأنظمة القمعية استخدام تهديد التضليل لتبرير تعزيز الرقابة وغير ذلك من الانتهاكات الحقوقية، بحسب المنتدى الاقتصادي العالمي.

تأمل الدول بالرد عبر القوانين، لكن عملها يعد بطيئا للغاية مقارنة بالتطوّر السريع للذكاء الاصطناعي.

وسيتطلب "قانون الهند الرقمي" و"قانون الخدمات الرقمية" للاتحاد الأوروبي من المنصات استهداف المعلومات المضللة وحذف أي محتوى غير قانوني. لكن الخبراء يشككون في إمكانيات تطبيقهما.

تعمل الصين والاتحاد الأوروبي على قوانين شاملة للذكاء الاصطناعي، لكنها ستستغرق وقتا. ويستبعد استكمال قانون الاتحاد الأوروبي قبل العام 2026.

وفي تشرين الأول/أكتوبر، أصدر الرئيس الأميركي جو بايدن أمرا تنفيذيا مرتبطا بمعايير السلامة في ما يتعلق بالذكاء الاصطناعي.

لكن البعض يشيرون إلى عدم إمكانية فرضها، بينما يخشى بعض النواب من أن المبالغة في تنظيم القطاع قد يؤثر سلبا عليه ويصب في مصلحة جهات منافسة.

وطرحت شركات التكنولوجيا التي واجهت ضغوطا للتحرّك مبادرات خاصة بها.

تقول ميتا إنه سيتوجب على الجهات المعلنة كشف إن كان محتواها استخدم الذكاء الاصطناعي التوليدي بينما طرحت مايكروسوفت أداة تمكن المرشحين السياسيين من التأكيد على صحة محتواهم باستخدام علامة مائية رقمية.

لكن المنصات تعتمد بشكل متزايد على الذكاء الاصطناعي في عمليات التحقق.

أبرز المخاطر على البشرية

بدورها قدّر المنتدى الاقتصادي العالمي أن يكون التضليل الإعلامي أحد أكبر المخاطر على البشرية في العامَين المقبلَين اللذين سيشهدان انتخابات مدعوّ إلى التصويت فيها نحو نصف سكان العالم ووسط ازدهار الذكاء الاصطناعي.

وجاء في "تقرير المخاطر العالمية" أن "الاستخدام الواسع النطاق للمعلومات الخاطئة والمضللة وأدوات نشرها يمكن أن يقوّض شرعية الحكومات المنتخبة حديثًا".

وأضاف التقرير الذي نُشر قبل أيام من بدء فعاليات المنتدى الاقتصادي العالمي في دافوس السويسرية في 15 كانون الثاني/يناير وحتى 19 منه "يمكن أن تتراوح الاضطرابات الناجمة عن ذلك بين التظاهرات العنيفة وجرائم الكراهية إلى الاشتباكات المدنية والإرهاب".

وذكّر التقرير بأن اقتصادات كبيرة شهدت أو ستسشهد انتخابات على مدى عامَين منها بنغلادش والهند وإندونيسيا والمكسيك وباكستان والمملكة المتحدة والولايات المتحدة.

وتختلف أبرز خمسة مخاطر لكلّ بلد، حسبما قالت المديرة العامة للمنتدى الاقتصادي العالمي سعدية زاهدي خلال مؤتمر صحافي في لندن الأربعاء. فعلى سبيل المثال، لا يرد خطر المعلومات الخاطئة "أبدًا في أبرز خمسة مخاطر في الولايات المتحدة" لكنه "يحتل المرتبة الأولى" بالنسبة للهند.

وأشار المنتدى الاقتصادي العالمي في بيان إلى أن "الاستقطاب المجتمعي" والمعلومات الخاطئة المنشورة عمدًا و"التي يولّدها الذكاء الاصطناعي" تُضاف هذا العام إلى "المخاوف بشأن أزمة معيشة مستمرة".

وترد النزاعات المسلحة بين الدول على قائمة أبرز خمسة مخاوف في العامين المقبلين على المستوى العالمي.

على المدى الطويل، ستصبح الظروف الجوية القاسية والتغيرات الحاسمة في النظم البيئية للأرض أكبر مصدر للقلق.

ويستند التقرير الذي أُعدّ بالتعاون مع مجموعة زيوريخ للتأمين وشركة مارش ماكلينان، على آراء أكثر من 1400 خبير عالمي في المخاطر وصانعي قرار ورؤساء شركات استُطلعت آراؤهم في أيلول/سبتمبر 2023.

وسيحضر المنتدى أكثر من 60 رئيس دولة وحكومة بينهم الرئيس الفرنسي إيمانويل ماكرون ونظيره الأرجنتيني خافيير ميلي ورئيس الحكومة الصينية لي تشيانغ.

تهدئة المخاوف

من جهتها نشرت شركة أوبن إيه.آي للذكاء الاصطناعي تدوينة سعت من خلالها إلى تهدئة المخاوف من أن تقنيتها سوف تتدخل في الانتخابات، بينما يستعد أكثر من ثلث العالم للتوجه إلى صناديق الاقتراع هذا العام.

وبات استخدام الذكاء الاصطناعي للتدخل في نزاهة الانتخابات مصدر قلق منذ أن أطلقت الشركة المدعومة من مايكروسوفت منتجين، هما روبوت الدردشة الذائع الصيت (تشات جي.بي.تي) الذي يمكنه تقليد الكتابة البشرية بشكل مقنع، و(دال-إي) الذي يمكن استخدامه فيما تعرف بعمليات "التزييف عميق" "أو إنتاج صور ملفقة تبدو واقعية.

ومن بين الذين يشعرون بالقلق حيال ذلك رئيسها التنفيذي سام ألتمان، الذي أدلى بشهادته في الكونجرس في مايو أيار الماضي، إذ قال إنه "قلق" إزاء قدرة الذكاء الاصطناعي التوليدي على تعريض نزاهة الانتخابات للخطر من خلال "التضليل التفاعلي الفردي".

وقالت الشركة، ومقرها سان فرانسيسكو، إنها تعمل مع الرابطة الوطنية لوزراء الخارجية، وهي منظمة أمريكية تركز على تعزيز العمليات الديمقراطية الفعالة مثل الانتخابات. وستجري الولايات المتحدة انتخابات رئاسية هذا العام.

وأضافت أن (تشات جي.بي.تي) سيوجه المستخدمين إلى موقع (كان آي فوت دوت أورج) عند طرح بعض الأسئلة المتعلقة بالانتخابات.

وأفادت الشركة بأنها تعمل أيضا على جعل الأمر أكثر وضوحا عند إنشاء صور بتقنية الذكاء الاصطناعي (دال-إي)، وتخطط لوضع رمز على الصور يشير إلى أنها أُنشئت بواسطة الذكاء الاصطناعي.

كما أنها تعمل على إيجاد طرق لتحديد المحتوى المُنشأ بواسطة (دال-إي) حتى بعد تعديل الصور.

وأكدت الشركة في المنشور على أن سياساتها تحظر استخدام تقنيتها بطرق حددت أنها مسيئة، مثل إنشاء روبوتات دردشة تتظاهر بأنها أشخاص حقيقيون، أو الإثناء عن التصويت.

وأضافت أنها تحظر أيضا استخدام (دال-إي) في إنشاء صور لأشخاص حقيقيين، بمن فيهم المرشحون السياسيون.

سنة الانتخابات والتضليل

ويرى خبراء أن تداعيات الذكاء الاصطناعي على حملات وانتخابات عام 2024 ستكون كبيرة بقدر ما هي مثيرة للقلق، إذ لا يمكن للذكاء الاصطناعي التوليدي إنتاج رسائل بريد إلكتروني أو نصوص أو مقاطع فيديو بشكل سريع فحسب، بل يمكن استخدامه أيضا لتضليل الناخبين وانتحال شخصية المرشحين وتقويض الانتخابات على نطاق واسع.

ويشير الخبراء إلى أن هذا المحتوى المزيف والمُنشأ رقميا بخوارزميات قوية عندما يتم ربطه بوسائل التواصل الاجتماعي، سيكون من السهل أن ينتشر بشكل واسع وبسرعة ويستهدف جماهير محددة للغاية، ما قد يعزز الحيل والأهداف غير الشريفة للحملات الانتخابية.

وانتشرت على الإنترنت مقاطع فيديو مزيفة لمرشحين للانتخابات الرئاسية في إندونيسيا وخطابات الكراهية الموجه ضد المسلمين الهنود، وكان هذا جزءا من تزايد المعلومات المضللة على وسائل التواصل الاجتماعي قبل سنة الانتخابات، فيما يقول خبراء إن منصات التكنولوجيا ليست مستعدة لهذا التحدي.

وتقول رينا تشاندران في تقرير نشرته مؤسسة تومسون رويترز إنه رغم المخاطر العالية والأدلة التي تنشرها استطلاعات الرأي السابقة حول كيفية تأثير المحتوى المزيف عبر الإنترنت على الناخبين، يرى خبراء الحقوق الرقمية إن منصات التواصل الاجتماعي غير مستعدة للارتفاع المؤكد في المعلومات المضللة وخطاب الكراهية.

وترى الخبيرة في سلامة المنصات سابهاناز رشيد ضياء أن عمليات التسريح الأخيرة في شركات التكنولوجيا الكبرى، والقوانين الجديدة لمراقبة المحتوى عبر الإنترنت التي تقيد المشرفين، وأدوات الذكاء الاصطناعي التي تسهل نشر المعلومات المضللة قد تضر بالبلدان الفقيرة أكثر.

وأشارت إلى أن الأوضاع تدهورت منذ الدورة الانتخابية الأخيرة في العديد من البلدان، حيث أصبحت الجهات الفاعلة التي تسيء استخدام المنصات أكثر تعقيدا، ولكن الموارد اللازمة لمعالجتها لم تطور.

وأكّدت أن الأولويات تغيرت نتيجة للتسريح الجماعي للعمال واللوائح الجديدة التي يجب على المنصات الامتثال لها، حيث يعني هذا تراجع الموارد الكافية لمعالجة المحتوى الأوسع ونزاهة الانتخابات استباقيا.

وترى أن ذلك سيؤثر على الجنوب العالمي بشكل غير متناسب، حيث أنه لا يتلقى نفس القدر من الموارد من شركات التكنولوجيا.

وتسهّل أدوات الذكاء الاصطناعي التوليدية، مثل “دال-إي” و”ميدجورني” و”ستايبلديفيوجن”، إنشاء مزيف عميق مقنع. وينتشر لذلك القلق بشأن كيفية استغلال هذه المواد لتضليل الناخبين.

واعتُمد بالفعل التزييف العميق لخداع الناخبين من نيوزيلندا والأرجنتين والولايات المتحدة. وتحاول السلطات لمواكبة التكنولوجيا بينما تعد باتخاذ إجراءات صارمة ضد المعلومات المضللة.

كما ستقام انتخابات البرلمان الأوروبي في يونيو. ويطلب الاتحاد الأوروبي من شركات التكنولوجيا وضع علامات واضحة على الإعلانات السياسية وتحديد الذي دفع مقابلها. وتحظر قواعد تكنولوجيا المعلومات في الهند نشر المعلومات المضللة، وهوما أكّدته وزارة الاتصالات وتكنولوجيا المعلومات خلال الشهر الماضي.

وقالت شركة غوغل إنها تخطط لوضع تصنيفات على المحتوى الذي ينشئه الذكاء الاصطناعي والإعلانات السياسية التي تعتمد مواد معدلة رقميا.

وستطبّق هذه الخطوة على كل منصاتها، بما في ذلك على يوتيوب. كما تخطط للحد من الاستفسارات الانتخابية التي يمكن لروبوت الدردشة بارد والبحث المستند إلى الذكاء الاصطناعي الإجابة عنها.

وقال متحدث باسم يوتيوب إن الفرق التي تركز على تغطية الانتخابات على المنصة تراقب التطورات في الوقت الفعلي، بما في ذلك من خلال اكتشاف الاتجاهات في المحتوى الحساس ومعالجتها بالشكل المناسب قبل أن تتطور إلى مشاكل أكبر.

وقالت شركة ميتا المالكة لفيسبوك وواتساب وإنستغرام إنها ستمنع الحملات السياسية والمعلنين من استخدام منتجات الذكاء الاصطناعي التوليدية في الإعلانات.

وقال متحدث باسم ميتا إن الشركة وضعت إستراتيجية شاملة للانتخابات، وتتضمن اكتشاف الخطاب المحرض للكراهية والعنف، والحد من انتشار المعلومات المضللة، وفرض شفافية الإعلانات السياسية، والشراكة مع السلطات لاتخاذ إجراءات بشأن المحتوى الذي ينتهك القوانين.

ولم ترد إكس، المعروفة سابقا بتويتر، على طلب للتعليق على إجراءاتها لمعالجة المعلومات المضللة المتعلقة بالانتخابات. كما لم تستجب منصة تيكتوك المحظورة في الهند.

وخلّفت المعلومات المضللة على وسائل التواصل الاجتماعي عواقب حقيقية قبل الانتخابات السابقة وبعدها. وكان هذا اتجاها تكرر في العديد من الدول التي سيتوجه فيها الناخبون إلى صناديق الاقتراع خلال السنة الحالية.

وارتفع التضليل والدعوات إلى العنف على شبكات التواصل الاجتماعي بعد نتيجة انتخابات 2019 في إندونيسيا، التي ستشهد انتخابات جديدة بتاريخ 14 فبراير. وقُتل ما لا يقل عن ستة أشخاص في الاضطرابات التي تجلّت في العالم الحقيقي.

ومن المقرر إجراء انتخابات وطنية يوم 8 فبراير في باكستان. وسبق أن انتشر خطاب الكراهية والمعلومات المضللة على وسائل التواصل الاجتماعي قبل الانتخابات العامة التي أجرتها في 2018، وهو حدث تخللته سلسلة من التفجيرات التي أودت بحياة العشرات من الأشخاص.

وأدت الاشتباكات العنيفة التي تلت اعتقال أنصار رئيس الوزراء السابق المسجون عمران خان خلال العام الماضي، إلى إغلاق الإنترنت وحجب منصات التواصل الاجتماعي. وألقي القبض على بطل الكريكيت السابق خان بتهم فساد خلال 2022، وحكم عليه بالسجن لمدة ثلاث سنوات.

وقالت نوريانتي جالي، الأستاذة المساعدة في جامعة ولاية أوكلاهوما الأميركية، إن شركات وسائل التواصل الاجتماعي طوّرت خوارزمياتها الهادفة لمعالجة المعلومات الخاطئة والمضللة، لكن فعالية هذه الأدوات قد تبقى محدودة بسبب الفروق الدقيقة المحلية وتعقيدات اللغات الأخرى غير الإنجليزية.

وأشارت إلى أن الانتخابات الأميركية الحاسمة والأحداث العالمية مثل الصراع بين إسرائيل وحماس والحرب الروسية الأوكرانية يمكن أن “تستنزف الموارد والتركيز الذي كان يمكن تخصيصه للتحضير للانتخابات في مناطق أخرى”.

واندلعت احتجاجات عنيفة في بنغلاديش خلال الأشهر التي سبقت انتخابات 7 يناير. وقاطع حزب المعارضة الرئيسي الانتخابات وفازت رئيسة الوزراء الشيخة حسينة بولاية رابعة على التوالي.

وتعدّ فيسبوك أكبر منصة وسائط اجتماعية في البلاد، حيث سجّلت أكثر من 44 مليون مستخدم. وحددت دراسة حديثة أجرتها شركة الأبحاث التقنية ديجيتال يرايت أنها تخطئ في تصنيف الإعلانات السياسية ووضعها في إطارها السليم. ويكشف هذا عن ثغرات في عملية التحقق المعتمدة.

وكشف تقرير منفصل نشره معهد ديا العالمي للتكنولوجيا الشهر الماضي عن مدى صعوبة تحديد الانتماء بين صفحات ومجموعات فيسبوك والحزبين السياسيين الرئيسيين في بنغلاديش أو معرفة ما يشكل “معلومات موثوقة” من أي من الحزبين.

وتراجعت ميتا وإكس وكذلك ألفابت المالكة لغوغل خلال 2023 عن 17 سياسة رئيسية على الأقل كانت مصممة للحد من خطاب الكراهية والمعلومات المضللة. وسرحت أكثر من 40 ألف شخص، بما في ذلك الفرق التي حافظت على سلامة المنصة، حسبما أوردته منظمة فري برس الأميركية غير الربحية في تقرير نشرته في ديسمبر.

وأشارت محامية الحقوق المدنية نورا بينافيديز في التقرير إلى إجراء العشرات من الانتخابات الوطنية في جميع أنحاء العالم في 2024، وكتبت أن التزامات نزاهة المنصة تشهد اليوم أهمية غير مسبوقة، لكنها تعتبر شركات وسائل التواصل الاجتماعي الكبرى غير مستعدة للدورات الانتخابية المقبلة.

وأكّدت أن افتقار المنصات إلى السياسات والفرق الحيوية في مهمة الإشراف على المحتوى المخالف يخاطر بتضخيم الارتباك، وتقويض مشاركة الناخبين، وخلق فرص للتلاعب بالشبكة لتآكل المؤسسات الديمقراطية.

وقال خبراء التكنولوجيا إن بعض الحكومات استجابت لهذا النقص الملحوظ في السيطرة بتفعيل قوانين تقييدية، لكن ذلك قد يؤدي إلى الإفراط في فرض الإشراف على المحتوى.

وصعّدت الهند، التي تتوقع فوز رئيس الوزراء ناريندرا مودي بولاية ثالثة، مطالب إزالة المحتوى. كما قدمت للشركات أحكاما للمسؤولية الفردية، وحذرتها من أنها قد تفقد الحماية من المسؤولية عن محتوى الطرف الثالث إذا لم تمتثل.

وقالت ضياء إن “الالتزام القانوني يضع ضغوطا إضافية على المنصات… ستفرط المنصة في التنفيذ عن غير قصد إذا كانت حمايتها في خطر، مما قد يدفعها إلى إزالة الكثير من المحتوى”.

ويرى رامان جيت سينغ شيما، وهو مدير سياسة آسيا في منظمة أكسس ناو غير الربحية، أن القضية تكمن في الإعداد، حيث فشلت شركات التكنولوجيا الكبرى في التعامل مع المجتمع المدني قبل الانتخابات ولم تقدم معلومات كافية باللغات المحلية.

وقال إن “المنصات الرقمية أصبحت أكثر أهمية في هذه الدورة الانتخابية، لكنها لم تصمم لهذه العمليات السياسية وتفتقر إلى الشفافية في إجراءاتها للتخفيف من الأضرار”. واعتبر الوضع مثيرا للقلق.

تضليل الناخبين

بدورها تحدثت وكالة "أسوشيتد برس" عن مخاطر أدوات الذكاء الاصطناعي على الانتخابات، بداية من عام 2024، خاصة بعد أن أصبحت في متناول الجميع، بسبب رخصها وقوتها.

وأوضحت الوكالة في تقرير، أن مهندسي الكمبيوتر وعلماء السياسة والمهووسين بالتكنولوجيا حذروا من أن أدوات الذكاء الاصطناعي ستسمح قريبا لأي شخص بتزييف صور وفيديوهات وأصوات تتسم بالواقعية بما يكفي لخداع الناخبين وربما التأثير على الانتخابات.

وذكرت الوكالة أنه بعكس الصور التركيبية التي ظهرت بشكل مفاجئ وتعتبر غير مقنعة ومكلفة الإنتاج، كان التهديد الذي يشكله الذكاء الاصطناعي وما يسمى بالتزييف العميق يبدو دائما على بعد عام أو عامين.

لكن حاليا أصبح بإمكان أدوات الذكاء الاصطناعي إنشاء أصوات بشرية مستنسخة وصور ومقاطع فيديو وصوت فائقة الواقعية في ثوانٍ وبأقل تكلفة، بحسب الوكالة.

وهذا المحتوى المزيف والمُنشأ رقميًا بخوارزميات قوية عندما يتم ربطه بوسائل التواصل الاجتماعي، سيكون من السهل أن ينتشر بشكل واسع وبسرعة ويستهدف جماهير محددة للغاية، ما قد يعزز الحيل والأهداف غير الشريفة للحملات الانتخابية.

ووفقا للوكالة، فإن تداعيات الذكاء الاصطناعي على حملات وانتخابات عام 2024 ستكون كبيرة بقدر ما هي مثيرة للقلق، إذ لا يمكن للذكاء الاصطناعي التوليدي إنتاج رسائل بريد إلكتروني أو نصوص أو مقاطع فيديو بشكل سريع فحسب، بل يمكن استخدامه أيضا لتضليل الناخبين وانتحال شخصية المرشحين وتقويض الانتخابات على نطاق واسع.

وأوضحت "أسوشيتد برس" أن خبراء الذكاء الاصطناعي توقعوا عددا من السيناريوهات المقلقة التي يتم فيها استخدام الذكاء الاصطناعي التوليفي لإنشاء وسائط تركيبية لأغراض إرباك الناخبين أو التشهير بمرشح أو حتى التحريض على العنف.

وهذه السيناريوهات تشمل إرسال رسائل آلية بصوت المرشح لإرشاد الناخبين إلى الإدلاء بأصواتهم في التاريخ الخطأ، أو خروج تسجيلات صوتية لمرشح يفترض أنه اعترف بجريمة أو يعبر عن آراء عنصرية، أو فبركة لقطات فيديو تظهر شخصا يلقي خطابا أو مقابلة لم تحدث مطلقا. كما يمكن بكل سهولة إنشاء صور مزيفة مصممة لتبدو وكأنها تقارير إخبارية محلية تدعي كذبا انسحاب مرشح من السباق.

وقال الرئيس التنفيذي المؤسس لمعهد ألين للذكاء الاصطناعي، الذي استقال العام الماضي لبدء منظمة AI2 غير الربحية، أورين إيتزيوني، للوكالة: "ماذا لو اتصل بك إيلون ماسك شخصيًا وطلب منك التصويت لمرشح معين؟". وأضاف "كثير من الناس سيستمعون. لكن في الواقع ليس هو".

ونقلت الوكالة عن كبير مسؤولي التكنولوجيا العالميين في Forcepoint ، وهي شركة للأمن السيبراني مقرها في أوستن بتكساس، قوله إن الانتخابات الأميركية عام 2024 من الممكن أن يتم التلاعب بها من قبل الحملات السياسية الشائنة والخصوم الأجانب بسبب الذكاء الاصطناعي.

وتوقع ستويانوف أن الجماعات التي تتطلع إلى التدخل في الديمقراطية الأميركية سوف تستخدم الذكاء الاصطناعي والوسائط التركيبية كوسيلة لتقويض الثقة، مؤكدا: "سنرى الكثير من المعلومات الخاطئة من المصادر الدولية".

ولمحاربة خطر الذكاء الاصطناعي على الانتخابات، ذكرت الوكالة أن النائبة الديمقراطية عن نيويورك، إيفيت كلارك، قدمت تشريعا في مجلس النواب الأميركي، يُلزم المرشحين بتسمية إعلانات الحملة التي تم إنشاؤها باستخدام الذكاء الاصطناعي، كما يُطالب التشريع أي شخص يُنشئ صور اصطناعية لإضافة علامة مائية تشير إلى الحقيقة.

ووفقا للوكالة، قدمت بعض الدول مقترحاتها الخاصة لمعالجة المخاوف بشأن التزييف العميق من جانب الذكاء الاصطناعي.

وقالت كلارك لـ"أسوشيتد برس" إن خوفها الأكبر هو إمكانية استخدام الذكاء الاصطناعي التوليدي قبل انتخابات 2024 لإنشاء مقطع فيديو أو صوت يحرض على العنف ويقلب الأميركيين ضد بعضهم البعض.

وأضافت: "من المهم أن نواكب التكنولوجيا، لكن علينا إقامة بعض حواجز الحماية، لأن الذكاء الاصطناعي يمكنه خداع الناس، ولا يستغرق الأمر سوى جزء من الثانية. وبشكل عام، أصبح الناس مشغولين بحياتهم وليس لديهم الوقت للتحقق من كل معلومة".

وتابعت أن "تجييش الذكاء الاصطناعي، في موسم سياسي، يمكن أن يكون مدمرا للغاية".

اضف تعليق