q
على خلفية الغزو الروسي لأوكرانيا، عقدت الأمم المتحدة مؤخرًا اجتماعًا لمناقشة استخدام نظم الأسلحة الذاتية، التي يُشار إليها عادةً بعبارة الروبوتات القاتلة، وهي بالأساس أسلحةٌ تتم برمجتها وتوجيهها لتحديد فئة معينة من الأهداف، ثم انتقاء شخص أو غرض ما ضمن تلك الفئة والانقضاض عليه، دون سيطرة بشرية تُذكر على عمليات اتخاذ القرار...
بقلم: برانكا ماريجان

على خلفية الغزو الروسي لأوكرانيا، عقدت الأمم المتحدة مؤخرًا اجتماعًا لمناقشة استخدام نظم الأسلحة الذاتية، التي يُشار إليها عادةً بعبارة "الروبوتات القاتلة"، وهي بالأساس أسلحةٌ تتم برمجتها وتوجيهها لتحديد فئة معينة من الأهداف، ثم انتقاء شخص أو غرض ما ضمن تلك الفئة والانقضاض عليه، دون سيطرة بشرية تُذكر على عمليات اتخاذ القرار.

وقد كانت روسيا محور تلك النقاشات، نظرًا للقدرات التي لديها في هذا المجال من ناحية، ولأن الدبلوماسيين الروس قد تسببوا في عرقلة المحادثات الساعية لتناوُل تلك الأسلحة من ناحية أخرى، زاعمين أن العقوبات المفروضة على بلادهم جعلتهم غير قادرين على المشاركة الفعالة في المحادثات، وعلاوةً على أن المحادثات حول هذه القضية اتسمت حتى الآن بالبطء الشديد، إلا أن عزوف روسيا عن المشاركة فيها قد تسبب في بطء أكبر.

وبدوري، تابعتُ مسار تطور الأسلحة الذاتية، وحضرت المناقشات التي دارت حول هذه المسألة في الأمم المتحدة طوال ما يربو على سبع سنوات، وأزعم هنا أن الاعتداءات التي شنتها روسيا مؤخرًا تكشف لنا يومًا بعد يوم عن الوجه القبيح لأي حروب تستخدم أسلحة الذكاء الاصطناعي، والتداعيات المدمرة التي يمكن أن تُسفر عنها هذه الحروب.

إن التكنولوجيا التي يعتمد عليها بعض نُظم هذه الأسلحة لم تتطور بشكل كامل بعد، كما أنها عرضةٌ للخطأ، هذا إلى جانب الغموض المحيط بطريقة عمل تلك النظم وكيفية اتخاذها للقرارات، فبعض تلك الأسلحة يصيب أهدافًا غير مقصودة مرارًا وتكرارًا، بينما قد يؤدي التنافس بين الدول إلى نشر المزيد من النظم التسليحية قبل أن تصبح جاهزةً للاستخدام في ساحات القتال.

ولكي نتجنب وقوع ضحايا في صفوف الأبرياء وتدمير منشآت البنية التحتية الأساسية في أوكرانيا وغيرها من مناطق النزاعات، فإننا في أمسِّ الحاجة إلى بذل الجهود الدبلوماسية المكثفة لمنع استخدام تلك الأسلحة والتقنيات التي تعتمد على تلك التكنولوجيا، ومن ضمنها الذكاء الاصطناعي والتعلُّم الآلي، في بعض الحالات، ووضع ضوابط لاستخدام هذه الأسلحة والتقنيات في حالات أخرى، تلك خطوة بالغة الأهمية؛ لأن الدول عادةً تجنح إلى الاستعانة بالتقنيات الجديدة إذا وجدت أن العمليات العسكرية لا تحقق النتائج المرجوة، وذلك لكي تضمن تفوُّقها على الخصم، ومن أمثلة ذلك استخدام روسيا الذخائر المتسكعة (الطائرات الانتحارية بدون طيار) من نوع «كوب-بلا» KUB-BLA، القادرة على تحديد أهدافها عن طريق تقنيات الذكاء الاصطناعي.

تستعين الأسلحة الذاتية بالبيانات التي يتم إدخالها إلى أنظمة الذكاء الاصطناعي في تحديد شكل الأهداف وكيفية التصرف لدى بلوغها، ورغم أن تقنيات الذكاء الاصطناعي المستخدمة لأغراض عسكرية تشبه تقنيات التعرف على الوجوه في أجهزة الحاسوب، فإن توظيفها على هذا النحو له تداعيات مختلفة، لا سيما عندما تكون مصمَّمة لأغراض التدمير والقتل، هذا ما جعل الخبراء متخوفين من استخدام هذه التقنيات في سياقات حربية حقيقية، وربما تكون روسيا قد نجحت بالفعل في عرقلة المحادثات حول تلك الأسلحة في الوقت الراهن، إلا أنها لا تسير وحدها في هذا الاتجاه؛ فالولايات المتحدة، والهند، وإسرائيل جميعها تجابه وضع الضوابط التي تحكم استخدام تلك الأنظمة العسكرية المدمرة.

ربما يكون الذكاء الاصطناعي أكثر تطورًا وشيوعًا في مجالات الحرب السيبرانية، مثل تطوير هجمات البرمجيات الخبيثة، أو تطوير قدرة قراصنة المواقع الإلكترونية على انتحال شخصية المستخدمين الموثوقين، بُغية التحكم في البنى التحتية الحيوية مثل شبكات الكهرباء، إلا أن القوى العظمى تستخدم الذكاء الاصطناعي لإنتاج أسلحة تدميرية حقيقية، وقد حققت روسيا بالفعل تطوراتٍ مهمةً في إنتاج الدبابات الذاتية، وهي معدَّات يمكن تشغيلها دون تدخل العنصر البشري القادر نظريًّا على تلافي الأخطاء، بينما أظهرت الولايات المتحدة إمكانياتٍ كبيرةً في هذا المجال، مثل إنتاجها الذخائر القادرة على تدمير سفينة حربية باستخدام سرب من الطائرات بدون طيار، ويُستخدم الذكاء الاصطناعي كذلك في تطوير تقنيات الأسراب الروبوتية والذخائر المتسكعة، التي يُطلق عليها أيضًا مصطلح «طائرات الكاميكازي بدون طيار»، وبدلًا من استخدام الروبوتات ذات التصميم المستقبلي التي اعتدنا مشاهدتها في أفلام الخيال العلمي، تستخدم هذه الأنظمة المنصات العسكرية الموجودة بالفعل لتحقيق أقصى استفادة من تقنيات الذكاء الاصطناعي، هكذا لا يتعدى الفارق بين الأنظمة العسكرية التي تعمل تحت إشراف بشري وتلك التي تعمل ذاتيَّا بضعة أسطر من الشفرة البرمجية وعددًا من المستشعرات الجديدة، كذلك من الجدير بالذكر أن استعانة القوى العسكرية بتقنيات الذكاء الاصطناعي في عملية اتخاذ القرارات قد تؤدي إلى الاعتماد المفرط على هذه التقنيات، الأمر الذي يجعلها تتحكم في القرارات العسكرية، وقد تتسبب في تصعيد النزاعات.

قد تبدو لنا حروب الذكاء الاصطناعي أشبه بألعاب الفيديو، لكن القوات الجوية الأمريكية استعانت بالذكاء الاصطناعي للمرة الأولى في تاريخها خلال شهر سبتمبر الماضي لتحديد هدف أو عدة أهداف ضمن "عملية هجوم تشغيلي حي"، وفقًا لما ذكره فرانك كيندال، قائد القوات الجوية الأمريكية، الأمر الذي يعني على الأرجح أن القوات الجوية الأمريكية استخدمت الذكاء الاصطناعي في تحديد بعض الأهداف البشرية والقضاء عليها.

لم ترد إلينا سوى معلومات ضئيلة حول المهمة المذكورة، كما أن هذه المعلومات لم توضح ما إذا كان أيٌّ من الضحايا الذين سقطوا في أثناء هذه المهمة هم المستهدفين الفعليين من الهجوم، كذلك، لم تشر المعلومات الواردة إلى نوعية البيانات التي تمت تغذية أسلحة الذكاء الاصطناعي بها لتحديد هؤلاء الأشخاص، وما إذا كانت عملية تحديد الأهداف قد شابتها بعض الأخطاء، إذ اتضح من قبل أن تقنيات الذكاء الاصطناعي تنطوي على بعض التحيُّزات، لا سيما ضد النساء والأشخاص المنتمين إلى الأقليات، لهذا، فعندما تُخفق أسلحة الذكاء الاصطناعي في تحديد الأشخاص المستهدفين بدقة، ينجم عن ذلك تبعات وخيمة، وبخاصة للجماعات المهمشة والمصنفة على أساس عرقي.

وإذا اتخذنا السجالات التي دارت مؤخرًا بين المشتغلين بتقنيات الذكاء الاصطناعي على وسائل التواصل الاجتماعي مؤشرًا، فسنجد أن مطوري هذه التقنيات الجديدة، التي بدأ بعض القوى العسكرية في استخدامها بالفعل، وأغلبهم من القطاع الخاص، في أغلب الأحيان لا يدركون فداحة آثارها، يرى جيريمي كان -الصحفي المتخصص في مجال التكنولوجيا بمجلة «فورتشن» Fortune- انفصالًا خطيرًا بين مطوري البرمجيات والقوى العسكرية الكبرى، مثل الأمريكية والروسية، التي تستعين بالذكاء الاصطناعي في اتخاذ القرارات وتحليل البيانات، ويبدو أن مطوري البرمجيات لا يدركون أن بعض الأدوات التي يطورونها متعددة الاستخدامات بطبيعتها، وأن الجيوش تستطيع استخدامها في الحروب لأغراض تتضمن استهداف المدنيين.

لا شك أن الدروس المستفادة من الغزو العسكري الذي نشهده في الوقت الراهن ستؤثر كذلك على طبيعة المشروعات التكنولوجية التي سوف تُقدِم عليها القوى العسكرية في المستقبل، وفي الوقت الحاضر، تأتي الولايات المتحدة في مقدمة الدول الساعية إلى إقامة تلك المشروعات، غير أن بيانًا مشتركًا أصدرته روسيا والصين في أوائل فبراير الماضي ذكر أن الدولتين تعملان على "بناء علاقات دولية من نوع جديد"، وأشار تحديدًا إلى كونهما تستهدفان السيطرة على حوكمة التقنيات الجديدة، التي أظن أنها سوف تتطرق إلى الاستخدامات العسكرية للذكاء الاصطناعي.

وفي سياق مستقل، تعمل الولايات المتحدة وحلفاؤها على صياغة معايير تضمن استخدام الذكاء الاصطناعي استخدامًا مسؤولًا في الأغراض العسكرية، لكن هذه الدول لا تسعى للحوار مع الدول المتوقع معارضتها لهذه المعايير، كما نجد أغلبية الدول التي تمتلك قوىً عسكرية متطورة تكنولوجيًّا تعزف عادةً عن قبول أي قيود يتم اقتراحها لضبط عمليات تطوير تقنيات الذكاء الاصطناعي، وهنا تحديدًا تضطلع الدبلوماسية الدولية بدور حاسم؛ إذ لا بد من فرض قيود على هذه الأنواع من الأسلحة، كما يجب أن تتفق جميع الدول على معايير مشتركة تحكم استخدام تلك التقنيات وتضمن مراعاة الشفافية عند استخدامها.

ينبغي أن نجعل الحرب في أوكرانيا نذيرًا لنا، يحذرنا من مغبَّة استخدام التكنولوجيا في الحروب، وينبهنا إلى ضرورة وضع ضوابط لاستخدام تقنيات الذكاء الاصطناعي حتى نضمن سلامة المدنيين، ذلك أن تطوير تطبيقات الذكاء الاصطناعي في المجال العسكري بتسرُّع ودون رادع لا يفتأ يساهم في عرقلة القوانين والأعراف الإنسانية الدولية المعنية بحماية المدنيين، ورغم أن النظام الدولي يسوده الاضطراب في الوقت الراهن، إلا أن الدبلوماسية، وليست التحركات العسكرية، هي الحل الناجع للأزمات الحالية والمستقبلية، إذًا، لا بد أن يسارع الاجتماع القادم لمنظمة الأمم المتحدة أو أي منظمة دولية أخرى بمناقشة هذه النوعية الجديدة من الحروب.

اضف تعليق