خرج إلى النور هذا العام نموذجٌ لغوي ضخم ليستحوذ على اهتمام وسائل الإعلام الدولية، هذا النموذج يُعرف اختصارًا بـ GPT-3، وهو قادرٌ على فهم النصوص والإجابة عن الأسئلة وتأليف أمثلةٍ من الكتابات الجديدة.

النموذجُ -الذي طرحته شركة «أوبن إيه آي» OpenAI غير الهادفة للربح والمُتخصصة في بناء نُظُم ذكاء اصطناعي للأغراض العامة والتي تتخذ من ولاية كاليفورنيا مقرًّا لها- له قدرةٌ مُذهلة على مُحاكاة الكتابة البشرية، لكن الشيء اللافت أيضًا ضخامةُ حجمه. في سبيل بناء هذا النموذج، جمع الباحثون 175 مليارًا من المُحدِّدات (نوعٌ من الوحدات الحوسبية) وأكثر من 45 تيرابايت من نصوصٍ مأخوذةٍ من مواقع «كامون كرول» Common Crawl و«ريديت» Reddit و«ويكيبيديا» وغيرها من المصادر الأخرى، ثم أجروا تدريبًا للنموذج في عملية شغلت المئات من وحدات المعالجة واستغرقت آلاف الساعات.

ويعكس نموذج التعلم GPT-3 اتجاهًا أوسع نطاقًا في مجال الذكاء الاصطناعي؛ فتقنية التعلم العميق التي هيمنت خلال السنوات الأخيرة على مجال بناء نُظُم الذكاء الاصطناعي الجديدة، تستخدم كمياتٍ هائلة من البيانات والطاقة الحوسبية لتغذية النماذج المُعقَّدة والدقيقة، وتتوافر تلك الموارد بقدرٍ أكبر للباحثين لدى الشركات الكبيرة والجامعات المرموقة، ونتيجةً لذلك، ثمة تراجعٌ للديمقراطية في مجال الذكاء الاصطناعي، إذ يتقلص عددُ الباحثين القادرين على تقديم إسهاماتهم في التطورات الرائدة، حسبما تُشير دراسةٌ من جامعة ويسترن، وهذا يُقلل من عدد الأشخاص القادرين على تحديد اتجاهات البحث فيما يتصل بهذه التقنية المحورية، الأمر الذي يترتب عليه تبعاتٌ اجتماعية، بل قد يُسهم ذلك في ظهور بعض التحديات الأخلاقية التي تواجه تطوير الذكاء الاصطناعي، ومن ضمنها انتهاك الخصوصية، والتحيُّز، والتأثير البيئي للنماذج الضخمة.

وبهدف التغلب على تلك المشكلات، يحاول الباحثون حاليًّا معرفة كيفية تحقيق الكثير بأقل قدرٍ من الموارد، ومن التقنيات المُستحدثة تقنيةٌ يُطلَق عليها «التعلم بأقل من مثالٍ واحد» (LO-shot learning)، ابتكرها كلٌّ من إليا سوتشولوتسكي وماتياس شونلاو من جامعة واترلو، [Office1] [RK2] والمبدأ الذي يستند إليه نموذجُ «التعلم بأقل من مثالٍ واحد» هو ضرورة أن تتيسَّر لنظامٍ اصطناعي ما إمكانية التعرُّف على الأشياء الموجودة في العالم دون تغذيته بمثالٍ على كلٍّ منها، وقد ظلَّت هذه العقبة حجر عثرة أمام نُظُم الذكاء الاصطناعي المعاصرة، التي تتطلب آلاف الأمثلة في كثيرٍ من الأحيان لتعلُّم التمييز بين الأشياء، على الجانب الآخر، الإنسان في أغلب الأحيان لديه قدرة على التغاضي عن الأمثلة الموجودة من أجل التعرُّف على عناصرَ جديدة لم يسبق له أن رآها من قبل، على سبيل المثال، عندما يُعرض على الطفل أشكالٌ مختلفة، فإنه يكون قادرًا على أن يُميِّز بسهولة بينها وأن يُدرك العلاقات بين ما عُرض عليه في السابق والأشكال الجديدة.

وقد طرح الفريق هذا النوع من التعلم في البداية عبر عمليةٍ أُطلق عليها «التقطير الناعم»، بالاستعانة بقاعدة بياناتٍ للصور يحتفظ بها المعهد الوطني الأمريكي للمعايير والتقنية (MNIST)، هذه القاعدة التي تضمُّ 60 ألف مثالٍ لأرقامٍ مكتوبةٍ من 0 إلى 9، أجرى الفريق تقطيرًا لها بحيث اختزلها إلى 5 صور مزجت بين خصائص الأعداد المختلفة، وتمكَّن نظام جامعة واترلو، بعد أن عُرضت عليه تلك الأمثلة الخمسة فقط، من تصنيف 92% من الصور المتبقية في قاعدة البيانات بدقة.

وقد بسط الفريق نطاق هذا المبدأ، في أحدث دراسةٍ بحثية له، بهدف البرهنة على أن تقنيات «التعلم بأقل من مثالٍ واحد» تُتيح نظريًّا لنُظُم الذكاء الاصطناعي إمكانية تعلُّم التمييز بين آلاف الأشياء استنادًا إلى مجموعةٍ صغيرة من البيانات، حتى ولو كانت لا تحوي إلا مثالين، ويُعد هذا تحسُّنًا كبيرًا في النُّظُم التقليدية للتعلم العميق، إذ يشهد الطلب على البيانات زيادةً هائلة مع تزايُد الحاجة إلى تمييز المزيد من الأشياء، وفي الوقت الحالي، ينبغي إيلاء العناية اللازمة عند تصميم مجموعات البيانات الصغيرة المُستخدمة في نموذج «التعلم بأقل من مثالٍ واحد» لتقطير سمات الفئات المختلفة من الأشياء، لكن سوتشولوتسكي يسعى إلى مواصلة تطوير هذا العمل عن طريق النظر إلى العلاقات بين الأشياء، التي رُصدت بالفعل في مجموعات البيانات الصغيرة المُتاحة حاليًّا.

وتمكينُ نُظُم الذكاء الاصطناعي من التعلم باستخدام بياناتٍ أقل بكثير يُعد أمرًا مُهمًّا لعدة أسباب، فأولًا، يُتيح هذا إطارًا أفضل لعملية التعلم الفعلية عن طريق دفع النظام إلى التعميم على فئاتٍ لم يسبق له رؤيتها من قبل، ومن خلال دمج التجريدات التي ترصد العلاقات بين الأشياء، تُقلِّل هذه التقنية من احتمالات التحيُّز، فنُظُم التعلم العميق عُرضةٌ في الوقت الحالي للتحيُّز الناشئ عن سماتٍ غير ذات صلة في البيانات التي تستخدمها في عملية التدريب، ومن الأمثلة الشهيرة على تلك المشكلة أن نُظُم الذكاء الاصطناعي تُصنِّف الكلاب على أنها ذئاب عندما تُعرض عليها صورٌ لكلابٍ في بيئةٍ مُغطاة بالثلوج؛ وذلك لأن معظم صور الذئاب تُظهرها بالقرب من الثلوج، وإذا أمكن التركيزُ على الجوانب الملائمة من الصورة، فإن ذلك من شأنه أن يُسهم في منع حدوث تلك الأخطاء، ومن ثمَّ، فإن التقليل من حجم البيانات اللازمة يجعل تلك النُّظُم أقل تعرُّضًا لهذا النوع من التحيُّز.

وأما السببُ الثاني فهو أنه كلما قلت كمية البيانات التي يتعين استخدامها، قلَّ الدافعُ إلى وضع الناس تحت المُراقبة لبناء خوارزمياتٍ أفضل، فمثلًا، أثَّرت تقنيات «التقطير الناعم» بالفعل على أبحاث الذكاء الاصطناعي في مجال الطب، التي تُدرِّب نماذجها باستخدام معلوماتٍ صحيةٍ حساسة؛ ففي دراسةٍ حديثة، استخدم الباحثون تقنية «التقطير الناعم» في التصوير بالأشعة السينية التشخيصية المُعتمدة على مجموعةٍ صغيرةٍ من البيانات تُحافظ على الخصوصية.

وأخيرًا، عندما تتمكَّن نُظُم الذكاء الاصطناعي من التعلُّم استنادًا إلى بياناتٍ أقل وفرة، فإن ذلك يُسهم في إضفاء الطابع الديمقراطي على مجال الذكاء الاصطناعي؛ فمن خلال الاستعانة بنُظُم ذكاءٍ اصطناعي أصغر حجمًا، يمكن أن تحتفظ الأوساط الأكاديمية بأهميتها وأن تتجنب خطر استدراج الدوائر الصناعية لأساتذة الجامعات، ولا تقتصر أهمية تقنية «التعلم بأقل من مثالٍ واحدٍ» على تذليل عقبات الدخول عن طريق تقليل تكاليف التدريب وخفض حجم البيانات المطلوبة، بل تُوفِّر أيضًا مزيدًا من المرونة للمُستخدمين من أجل بناء مجموعات بيانات جديدة وتجربة أساليب مُستحدثة، ومن خلال تقليل الوقت الذي يُستنفدُ في هندسة البيانات وبنيتها، يصبح بمقدور الباحثين الذين يتطلعون إلى الاستفادة من نُظُم الذكاء الاصطناعي أن يقضوا مزيدًا من الوقت في التركيز على المشكلات العملية التي يسعون إلى حلها.