q
مستوى الذكاء الاصطناعي في النموذج الجديد أثار حماس الباحثين.. والتكتُّم على ما يخص بنيته وطريقة عمله أورثهم شيئًا من الإحباط، أطلقت شركة الذكاء الاصطناعي أوبن إيه آي OpenAI النموذج اللغوي الذي يحمل اسم «جي بي تي-4» GPT-4، وهو أحدث إصدار من النموذج اللغوي الكبير الذي يعمل به روبوت المحادثة ذائع الصيت ChatGPT...
بقلم: كاثرين ساندرسن

مستوى الذكاء الاصطناعي في النموذج الجديد أثار حماس الباحثين.. والتكتُّم على ما يخص بنيته وطريقة عمله أورثهم شيئًا من الإحباط.

أطلقت شركة الذكاء الاصطناعي «أوبن إيه آي» OpenAI النموذج اللغوي الذي يحمل اسم «جي بي تي-4» GPT-4، وهو أحدث إصدار من «النموذج اللغوي الكبير» الذي يعمل به روبوت المحادثة ذائع الصيت «تشات جي بي تي» ChatGPT. تقول الشركة إن النموذج الجديد يضم تحسينات كبرى، وهو الأمر الذي يصدِّق عليه الكثيرون، الذين أذهَلَتهم قدرة النموذج على تأليف نصوص تشبه النصوص التي يكتبها البشر، وكذا قدرتُه على توليد صور وصياغة أكواد برمجية استجابةً إلى أي شيء – تقريبًا – يُمليه عليه المستخدم. يرى الباحثون أن هذه القدرات تحمل في طيَّاتها إمكانية إحداث تحوّل في مجال العلوم، لكن بعضهم يشعرون بالإحباط لعدم تمكينهم من استخدام التقنية التي يقوم عليها النموذج، أو الاطلاع على أكواده البرمجية، أو الإلمام بالكيفية التي دُرِّب بها؛ وهو الأمر الذي يثير قلق عدد من العلماء حيال أمان هذه التقنية، ويقلل من نفعها لأغراض البحث العلمي.

من بين التحسينات التي يتضمَّنها «جي بي تي-4»، الذي أُزيح عنه الستار في الرابع عشر من شهر مارس الماضي، أنه أصبح قادرًا الآن على التعامل مع الصور، فضلًا عن النصوص. وللتدليل على براعته اللغوية، ذكرت الشركة المطوِّرة – ومقرها مدينة سان فرانسيسكو بولاية كاليفورنيا الأمريكية – أن النموذج قد نجح في اجتياز اختبار القانون اللازم لمزاولة مهنة المحاماة في الولايات المتحدة، محرزًا نتيجة تقع ضمن الشريحة العليا (أعلى 10%) من النتائج في هذا الاختبار، وذلك بالمقارنة مع نتيجة سَلَفِه «تشات جي بي تي»، التي وقعَتْ ضمن الشريحة الدنيا (أقل 10%) من نتائج الاختبار نفسه. لكن هذه التقنية لم تُتَح بعدُ على نطاق واسع، ولا يستطيع استخدامها حتى الآن إلا المستخدمون الذين يدفعون رسوم اشتراك.

هذا ما أكَّدَتْه إيفي-آن فان ديس، عالمة النفس بمُجمَّع المراكز الطبية التابع لجامعة أمستردام، بقولها: "ثمة قائمة انتظار لاستخدام النموذج في الوقت الراهن، فلا يمكنك استخدامه الآن مباشرةً". لكنها شاهدت عروضًا للإصدار الجديد، وعنها علَّقَت قائلةً: "شاهدنا بعض المقاطع التي عَرَضت فيها الشركة إمكاناته، وهو مذهل بحق". وساقت فان ديس مثالًا على هذه الإمكانات، فذكرَتْ أن «جي بي تي-4» أخذ رسمًا بسيطًا باليد لموقع إلكتروني، ثم كتب له الأكواد البرمجية المطلوبة لبناء ذلك الموقع، مدلِّلًا بذلك على قدرته على التعامل مع الصور كمُدخلات.

صندوق أسود

لكنَّ حالةً من الإحباط تسرَّبت إلى الأوساط العلمية على أثر تكتُّم الشركة المطوِّرة على الكيفية التي درَّبت بها النموذج، وكذا على البيانات التي استندت إليها في إنجاز تلك المهمة، بل وعلى آلية عمل «جي بي تي-4» من الأصل. تقول ساشا لوتشيوني، وهي عالمة بحثية متخصصة في أبحاث المناخ لدى تعاونية «هاجِنج فيس» HuggingFace المعنية بالذكاء الاصطناعي مفتوح المصدر: "هذه النماذج جميعها مغلقة المصدر، وتُعدّ في واقع الأمر طريقًا مسدودًا في مجال العلم. للشركة ]شركة «أوبن إيه آي»[ أن تواصل العمل والتطوير اعتمادًا على الأبحاث التي أجروها، لكن بالنسبة إلى المجتمع في العموم، فهذا طريقٌ مسدود".

أُتيح لأندرو وايت، باحث الهندسة الكيميائية بجامعة روشستر في نيويورك، أن يستخدم «جي بي تي-4»، كونه واحدًا من «الفريق الأحمر»، وهو المسمَّى الذي يُطلَق على من يتقاضون أتعابًا من الشركة المطوِّرة نظير اختبار المنصة، ومحاولة إيقاعها في أخطاء. ذكر وايت إنه مُكِّن من استخدام «جي بي تي-4» منذ ستة أشهر، وقال: "في بادئ الأمر، لم يبدُ أن هناك هذا الاختلاف الشاسع" بينه وبين الإصدارات السابقة.

طرح وايت على روبوت الدردشة أسئلة تستفسر منه عن خطوات التفاعلات الكيميائية المطلوبة للحصول على مركب ما، وطلب منه أن يتوقع إنتاجية التفاعل، وأن يختار العامل الحفّاز المناسب. يقول: "في البداية، لم يُثِر إعجابي كثيرًا. وكان هذا مفاجئًا حقًا؛ صحيحٌ أن أجوبته بَدَت واقعيةً إلى حدٍّ بعيد، لكنه قد يدخل في نوبة «هلوسة»، فيضيف ذرةً هنا، أو يُسقط خطوة من خطوات التفاعل هناك". ولكن حين أتاح له وايت الوصول إلى الأوراق البحثية، في إطار العمل الذي يقوم به «الفريق الأحمر»، تغيَّرت الأمور تغيُّرًا هائلًا. يقول وايت: "من هنا أدركنا أن هذه النماذج قد لا تقدم مستوًى جديرًا بالإعجاب من تلقائها، وبغير مساعدة، لكن ما إن تشرع في ربطها بالإنترنت، وتدعمها بالأدوات، من قبيل مخطِّطات التخليق الرجعي والآلات حاسبة، حتى تطالعك بقدرات جديدة تمامًا".

تلافي الأخطار

هذه الإمكانات تأتي مصحوبةً ببعض المخاوف. منها، مثلًا: هل سيمكّن «جي بي تي-4» مستخدميه من تصنيع مواد كيميائية خطرة؟ يقول وايت إن مهندسي الشركة غذّوا النموذج بمدخلات حتى يثنوا «جي بي تي-4» عن تصنيع مواد خطرة أو غير قانونية، أو مواد قد تسبب أضرارًا، وذلك استنادًا إلى ما أفادهم به باحثون وخبراء مثل وايت.

ومشكلةٌ ثانية، تتمثل في أن يمُدَّ النموذج مستخدميه بمعلومات خاطئة. وتقول لوتشيوني إن النماذج من قبيل «جي بي تي-4»، والتي وُضعت لتتوقع الكلمة التالية المناسبة في الجملة، لا يمْكن علاجها من اختلاق معلومات غير حقيقية، وهو ما يطلق عليه «الهلوسة». وتضيف الباحثة: "لا يمكنك الاعتماد على النماذج من هذا النوع لأنها تعجّ بالهلاوس". وتقول إن ذلك لا يزال مبعث قلق قائمًا في الإصدار الجديد أيضًا، رغم زعم الشركة أنها قد رفعت مستويات الأمان في «جي بي تي-4».

وترى لوتشيوني أنها إذا لم تُمكَّن من الاطّلاع على البيانات التي استُخدمت لتدريب النموذج، فإن تأكيدات الشركة على أمانه ستظل قاصرة عن طمأنتها. وتقول: "أنت لا تعرف ما البيانات المستخدمة، ومن ثم لا يمكنك أن تحسّن النموذج. أعني أنه يستحيل أن تستخدم نموذجًا هذه صفته لأداء مهام علمية".

وبالمثل، ترى عالمة النفس كلاودي بوكتِنج، زميلة الباحثة فان ديس في أمستردام، أن الغموض الذي يكتنف الكيفية التي دُرِّب بها النموذج يثير القلق، وتقول: "من الصعب جدًا على إنسان أن يتحمل مسؤولية شيء لا يستطيع أن يُشرف عليه". ومن بين الأمور التي تبعث على القلق، احتمال أن يحمل النموذج انحيازات أشد مما لدى البشر أنفسهم". وتوضح لوتشيوني أنه ما لم يُفصَح عن الأكواد البرمجية التي يقوم عليها «جي بي تي-4»، فسوف يتعذَّر التوصُّل إلى مصدر هذه الانحيازات، ومعرفة السبيل إلى علاجها.

جدلٌ حول الجوانب الأخلاقية

تتسابق كبريات شركات التكنولوجيا على الاستحواذ على أنظمة الذكاء الاصطناعي، وهذا أيضًا مما يبثُّ القلق في نفسَي الباحثتَين بوكتِنج وفان ديس، اللتين ترغبان في أن تتأكدا من أن هذه التقنية يجري اختبارها والتحقق منها كما يجب من قبل علماء. تقول لوتشيوني: "لنا أن نرى في هذا فرصة مناسبة أيضًا، فالتعاون مع شركات التكنولوجيا الكبرى يمكن له بالطبع أن يسرّع هذه العملية".

كانت الباحثتان وزملاؤهما قد نادتا في وقت سابق من العام الجاري بضرورة وضع مجموعة من القواعد الإرشادية "الحية"، تحْكُم آلية تطوير أنظمة الذكاء الاصطناعي، والأدوات من قبيل «جي بي تي-4»، وكيفية استخدامها. وهم، في الوقت نفسه، يخشون من أن أي تشريعات تتناول تكنولوجيا الذكاء الاصطناعي سيصعب عليها مجاراة السرعة التي يمضي بها تطوير هذه التكنولوجيا. ومن المقرَّر أن تعقد الباحثتان اجتماعًا مع عدد من المشاركين المدعوين بجامعة أمستردام في الحادي عشر من شهر أبريل لمناقشة هذه التخوفات. يُنتظَر أن يشارك في هذا الاجتماع ممثلون من منظمات تشمل لجنة أخلاقيات البحث العلمي بمنظمة اليونسكو، ومنظمة التعاون الاقتصادي والتنمية، والمنتدى الاقتصادي العالمي.

أما وايت، فيرى أنه مهما يكن شأن هذه التخوفات، فإن «جي بي تي-4»، وما سيليه من إصدارات، سوف تغيِّر وجه العلوم. يقول: "في الواقع، أظنه سيمثّل تغيرًا هائلًا في البنية التحتية للأنشطة العلمية، تقريبًا مثلما كان الإنترنت تغييرًا كبيرًا". وأضاف أنه لا يعتقد أن «جي بي تي-4» سيحل محل العلماء، لكنه سيكون مفيدًا في إنجاز بعض المهام، ويقول: "أعتقد أننا سندرك أنه بوسعنا الربط بين الأوراق البحثية وبرامج البيانات والمكتبات البرمجية التي نستخدمها وبين الأعمال الحاسوبية، وربما حتى بينها وبين التجارب الروبوتية".

اضف تعليق