يهدف النص إلى تسليط الضوء على مزايا الذكاء الاصطناعي، مع تقليل المخاطر التي ينطوي عليها أيضا. فإنه يوفر دليلا لضمان أن التحولات الرقمية تعزز حقوق الإنسان والمساهمة في تحقيق أهداف التنمية المستدامة، ومعالجة القضايا المتعلقة بالشفافية والمساءلة والخصوصية، ووضع سياسات عملية المنحى حول إدارة البيانات والتعليم...

اعتمدت جميع الدول الأعضاء في منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) يوم الخميس نصا تاريخيا يحدد القيم والمبادئ المشتركة اللازمة لضمان تطوير الذكاء الاصطناعي بصورة سليمة.

ويتغلغل الذكاء الاصطناعي في الحياة اليومية، من حجز الرحلات الجوية والتقدم بطلب للحصول على قروض إلى قيادة السيارات ذاتية القيادة. كما أنه يستخدم في مجالات متخصصة مثل فحص السرطان أو للمساعدة في خلق بيئات شاملة لذوي الإعاقة.

وفقا لليونسكو، يدعم الذكاء الاصطناعي أيضا عملية صنع القرار من قبل الحكومات والقطاع الخاص، فضلاً عن المساعدة في مكافحة المشكلات العالمية مثل تغير المناخ والجوع في العالم.

ومع ذلك، تحذر الوكالة الأممية من أن التكنولوجيا "تولد تحديات غير مسبوقة".

وفي هذا السياق أوضحت اليونسكو "أننا نرى مجموعة من التحديات مثل تفاقم التحيز الجنساني والإثني، وتعرض الخصوصية والكرامة والأهلية لتهديدات جدية، وبروز خطر المراقبة الجماعية، وزيادة استخدام تكنولوجيات الذكاء الاصطناعي غير الموثوق بها في مجال إنفاذ القانون. ولم يكن يوجد حتى الآن معايير عالمية تتصدَّى لهذه المسائل."

بالنظر إلى ذلك، يهدف النص الجديد المعتمد إلى توجيه بناء البنية التحتية القانونية اللازمة لضمان التطور الأخلاقي لهذه التكنولوجيا.

وبحسب المديرة العامة لليونسكو، أودري أزولاي "يحتاج العالم إلى وضع قواعد للذكاء الاصطناعي تعود بالنفع على البشرية، وتعتبر التوصية إحدى هذه القواعد الرئيسية، فهي تحدِّد أول إطار تقنيني عالمي، وتحمِّل الدول مسؤولية تطبيقه على الصعيد الوطني لديها. وستقدِّم اليونسكو الدعم إلى دولها الأعضاء المائة والثلاثة والتسعين، وتطلب منها تقديم تقارير دورية عن التقدم الذي تحرزه والممارسات التي تطبقها".

يهدف النص إلى تسليط الضوء على مزايا الذكاء الاصطناعي، مع تقليل المخاطر التي ينطوي عليها أيضا. وفقا لليونسكو، فإنه يوفر دليلا لضمان أن التحولات الرقمية تعزز حقوق الإنسان والمساهمة في تحقيق أهداف التنمية المستدامة، ومعالجة القضايا المتعلقة بالشفافية والمساءلة والخصوصية، ووضع سياسات عملية المنحى حول إدارة البيانات والتعليم والثقافة والعمل والرعاية الصحية والاقتصاد.

تتمثل إحدى توصيات النص الرئيسية في حماية البيانات، بما يتجاوز ما تفعله شركات التكنولوجيا والحكومات لضمان مزيد من الحماية للأفراد من خلال ضمان الشفافية والأهلية والتحكم في بياناتهم الشخصية. كما تحظر التوصية صراحة استخدام أنظمة الذكاء الاصطناعي للتقييم الاجتماعي والمراقبة الجماعية.

يشدد النص أيضا على أنه ينبغي على الجهات الفاعلة في الذكاء الاصطناعي تفضيل اختيار وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد، كي تسهم هذه الوسائل في ضمان توطيد دور الذكاء الاصطناعي البارز باعتباره إحدى أدوات التصدي لتغير المناخ ومعالجة القضايا البيئية.

وفي هذا السياق قالت مساعدة المديرة العامة لليونسكو لشؤون العلوم الاجتماعية والإنسانية، غابرييلا راموس: "يجب أن تتسم القرارات التي تؤثر في ملايين البشر بالعدل والشفافية وأن تكون قابلة للدحض. ويجب أن تساعدنا هذه التقنيات الحديثة في التصدي لأبرز التحديات التي تعترض طريقنا في عالم اليوم، وذلك على غرار استفحال أوجه عدم المساواة والأزمة البيئية، أي أنّه يجب ألّا تساهم هذه التقنيات في تعميق هذه التحديات."

وعرضت المديرة العامة لليونسكو، أودري أزولاي، المعيار العالمي الأول من نوعه بشأن أخلاقيات الذكاء الاصطناعي، الذي اعتمدته الدول الأعضاء في اليونسكو إبَّان المؤتمر العام.

ويحدِّد هذا النص التاريخي القيم والمبادئ المشتركة التي ستوجه عملية إعداد الهيكل الأساسي القانوني اللازم لضمان تطوير الذكاء الاصطناعي بطريقة سليمة.

وتحقق تكنولوجيات الذكاء الاصطناعي نتائج بارزة في التخصصات البالغة الدقة مثل الكشف عن أمراض السرطان وتهيئة بيئات تلائم الأشخاص ذوي الإعاقة. كما أنَّ للذكاء الاصطناعي دوراً في حلِّ مشكلات عالمية مثل تغيُّر المناخ والجوع، وفي المساعدة على الحدِّ من الفقر من خلال تقديم أقصى حدٍّ من المعونة الاقتصادية.

يحتاج العالم إلى وضع قواعد للذكاء الاصطناعي تعود بالنفع على البشرية، وتعتبر التوصية إحدى هذه القواعد الرئيسية، فهي تحدِّد أول إطار تقنيني عالمي، وتحمِّل الدول مسؤولية تطبيقه على الصعيد الوطني لديها. وستقدِّم اليونسكو الدعم إلى دولها الأعضاء المائة والثلاثة

مضمون التوصية

تسعى هذه التوصية إلى الاستفادة من المزايا التي يقدِّمها الذكاء الاصطناعي إلى المجتمع، والحدِّ من المخاطر المترتبة على استخدامه. وهي تكفل قيام التحولات الرقمية بتعزيز حقوق الإنسان والمساهمة في تحقيق أهداف التنمية المستدامة، والتصدي لمسائل تتعلق بالشفافية والمساءلة والخصوصية، ووضع سياسات عملية المنحى بشأن إدارة البيانات والتعليم والثقافة والعمل والرعاية الصحية والاقتصاد.

1- حماية البيانات

تدعو التوصية إلى عمل يتجاوز ما تقوم به الحكومات والشركات لضمان المزيد من الحماية للأفراد، من خلال تأمين الشفافية والأهلية والمراقبة في التعامل مع بياناتهم. وهي تنصُّ على أنَّه ينبغي أن يتمكَّن الأفراد من الحصول على سجلات بياناتهم الشخصية أو حتى حذفها. كما تتضمَّن إجراءات لحماية بيانات الأفراد ومعارفهم، وحقهم في التحكم ببياناتهم. كما أنها ترفع قدرة الهيئات التنظيمية في العالم على إنفاذها.

2- حظر وضع العلامات الاجتماعية وإجراء عمليات المراقبة الجماعية

تنص التوصية صراحة على حظر استخدام نظم الذكاء الاصطناعي لأغراض وضع العلامات الاجتماعية أو إجراء عمليات مراقبة جماعية. وتكتسي هذه الأنواع من التقنيات طابعاً شديد التوسع، إذ تنتهك حقوق الإنسان والحريات الأساسية، وتستخدم على نطاق واسع. وتشدد التوصية على أنّه ينبغي على الدول الأعضاء، عند إعداد الأطر التنظيمية، مراعاة وجوب اقتصار تحمّل المسؤولية النهائية والخضوع إلى المساءلة على البشر، وأنّه لا ينبغي منح تقنيات الذكاء الاصطناعي بحدّ ذاتها شخصية معنوية.

3- المساعدة في عمليات الرصد والتقييم

تحدد التوصية أيضاً الأساس لوضع الأدوات التي ستساعد في إنفاذها. ويتمثل الهدف من تقييم العواقب الأخلاقية في مساعدة البلدان والشركات في إعداد نظم الذكاء الاصطناعي ونشرها بغية تقييم تأثير هذه النظم في الأفراد والمجتمع والبيئة. وتساعد منهجيّة تقييم الاستعداد الدول الأعضاء على تقييم مدى جاهزيتها على صعيد الهياكل التقنية والقانونية الأساسية. وسوف تساعد هذه الأداة في تعزيز القدرة المؤسسية للبلدان، وتوصي باتخاذ التدابير المناسبة لضمان العمل بهذه الأخلاقيات على أرض الواقع. وتحثّ التوصية الدول الأعضاء على النظر في استحداث وظيفة جديدة لمسؤول مستقل عن أخلاقيات الذكاء الاصطناعي أو في وضع آلية معيّنة للإشراف على الجهود المطردة المبذولة من أجل تقييم العواقب الأخلاقية ومراجعة العمل ومواصلة الرصد.

4- حماية البيئة

وتؤكد التوصية أنّه يجب على الجهات الفاعلة في مجال الذكاء الاصطناعي تفضيل اختيار وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد، كي تسهم هذه الوسائل في ضمان توطيد دور الذكاء الاصطناعي البارز باعتباره إحدى أدوات التصدي لتغير المناخ ومعالجة القضايا البيئية. وتدعو التوصية الحكومات إلى تقييم العواقب البيئية المباشرة وغير المباشرة لأي نظام من نُظم الذكاء الاصطناعي طوال دورة حياة النظام المعني، ومنها على سبيل المثال لا الحصر انبعاثات الكربون الناجمة عن نظام الذكاء الاصطناعي ومقدار الطاقة التي يستهلكها، والعواقب البيئية الناتجة عن استخراج المواد الأولية اللازمة لصناعة وسائل تكنولوجيا الذكاء الاصطناعي. كما يهدف إلى التخفيف من التأثير البيئي لنظم الذكاء الاصطناعي والبنى التحتية للبيانات، ويحفز الحكومات على الاستثمار في التكنولوجيا الخضراء، وفي حال ثبت وجود تأثير سلبي لنظم الذكاء الاصطناعي في البيئة، فإن التوصية تنص على عدم استخدامها.

يجب أن تتسم القرارات التي تؤثر في ملايين البشر بالعدل والشفافية وأن تكون قابلة للدحض. ويجب أن تساعدنا هذه التقنيات الحديثة في التصدي لأبرز التحديات التي تعترض طريقنا في عالم اليوم، وذلك على غرار استفحال أوجه عدم المساواة والأزمة البيئية، أي أنّه يجب ألّا تساهم هذه التقنيات في تعميق هذه التحديات.

وقد برهنت التقنيات الناشئة، على غرار الذكاء الاصطناعي، قدرتها الهائلة على تحقيق المنفعة، بيد أنّه لا بدّ من السيطرة على آثارها السلبية التي تزيد من حدّة الانقسامات وأوجه عدم المساواة القائمة بالفعل في عالمنا. ويجب أن تمتثل التطورات الحاصلة في مجال الذكاء الاصطناعي لسيادة القانون، مما يحول دون وقوع الأذى ويضمن، في حال وقوعه، قدرة المتضررين على اللجوء إلى آليات المساءلة والتظلّم.

.....................................
للاطلاع على التقرير المفصل:
https://unesdoc.unesco.org/ark:/48223/pf0000373434_ara

اضف تعليق