يصعُب علينا الهروب من ذاك الهاجس المُلِح بأن ابتكار وتصنيع آلات أكثر ذكاءً منا، نحن البشر، قد يصير مشكلة، في يوم من الأيام. وربما نجد أنفسنا في موقف الغوريلا: فلو أن الغوريلا كانت سببًا في خروج الجنس البشري إلى الحياة، منذ أمد بعيد، كما تقول نظرية التطور لداروين، فربما يتمنى أبناء جنسها الذين أصبحوا مهددين بالانقراض الآن، لو أن أسلافهم لم يفعلوا ذلك بالأساس. لكن لماذا على وجه التحديد يُشكل الذكاء الاصطناعي المتطور مشكلة؟

إن بعض أفلام هوليوود، التي تتصور وعيًا آليًّا شريرًا يقود من تلقاء نفسه جيوشًا من الروبوتات القاتلة، هي محض أفكار ساذجة لا أكثر. إنما ترتبط المشكلة الحقيقية باحتمال أن يصبح الذكاء الاصطناعي ماهرًا بشكل لا يُصدَّق في تحقيق شيء آخر يختلف عما نريده بالفعل.

 في عام 1960، عبر عالم الرياضيات الأسطوري نوربرت وينر Norbert Wiener، الذي أسس لعلم التحكم الآلي (سيبرنيطيقا) cybernetics، عن ذلك الأمر قائلًا: "إذا استخدمنا كيانًا آليًّا لتحقيق أهدافنا الخاصة، ولم يكن لدينا إمكانية التدخل في عملياته بشكل فعال، فلا بد أن نكون على يقين تام من أن الهدف الذي وُضع بداخل الآلة هو الهدف الذي ننشده حقًّا".

إن الآلة التي صُنعت من أجل غرض محدد، لها خاصية أخرى ارتبطت بالكائنات الحية: الرغبة في الحفاظ على بقائها! الفارق فقط بينهما، أنه فيما يخص الآلات، فإن تلك الصفة ليست غريزية، كما أنها ليست شيئًا أضافه البشر إليها، بل هو نتيجة منطقية لحقيقة بسيطة، هي أن الآلة لن تستطيع تحقيق غرضها الأصلي إن لم تكن على قيد الحياة.

ومن ثَمَّ، فإن استخدام روبوت لديه مهمة واحدة هي إحضار القهوة، سيكوِّن لديه حافزًا قويًّا لضمان النجاح في مهمته، إلى الدرجة التي تجعله يعطل مفتاح الإغلاق الخاص به، أو يواجه أيَّ شخص قد يعترض طريقه عند أدائه مهمتَه. إن لم نتوخَّ الحذر، فقد نجد أنفسنا في مواجهة ما يشبه مباراة شطرنج عالمية ضد آلات حاسمة فائقة الذكاء، تتعارض أهدافها مع أهدافنا الخاصة، حيث تدور أحداث المباراة في عالمنا الحقيقي الذي يصبح بمنزلة رقعة شطرنج.

إن احتمال دخول البشر مباراة كهذه وخسارتها، يجب أن يحفز عقول علماء الكمبيوتر للتركيز على علاج تلك المشكلة. يعتقد بعض الباحثين أنه من الممكن حصار الآلات داخل نوع من جدران الحماية، واستخدامها في الإجابة عن الأسئلة الصعبة، دون السماح لها بالتأثير على عالمنا الحقيقي. (وبطبيعة الحال، فإن هذا يعني التخلي عن تطوير الروبوتات فائقة الذكاء من الأصل!). لسوء الحظ، من غير المرجح أن تنجح تلك الخطة؛ إذ إننا لم ننجح بعدُ في ابتكار جدار حماية آمن ضد اختراق البشر العاديين، ناهيك عن الآلات فائقة الذكاء.

هل يمكننا -عوضًا عن كل ذلك- أن نتعامل مع تحذير وينر من البداية؟ هل يمكننا تصميم أنظمة ذكاء اصطناعي، لا تتعارض أهدافها مع أهدافنا الخاصة، حتى نكون على يقين وفى أمان من طريقة تصرفها فيما بعد؟ هذا الأمر أبعد ما يكون عن السهولة، فعادة ما تنتهي قصص الجني والأمنيات الثلاث بالرغبة الثالثة، التي يطالب صاحبها بالتراجع عن الرغبتين الأولى والثانية -ولكنني أعتقد أن الأمر قد يكون ممكنًا إذا ما اتبعنا ثلاثة مبادئ أساسية في تصميم الأنظمة الذكية:

أولًا: يجب أن يكون الغرض من الآلة هو الالتزام بأقصى قدر ممكن من القيم الإنسانية. على وجه التحديد، ألا تمتلك الآلة هدفًا ذاتيًّا أو رغبة غريزية في حماية نفسها.

ثانيًا: يجب ألا تكون الآلة على يقين من القيم الإنسانية التي عليها أن تتبعها. وقد اتضح أن ذلك الأمر مصيري، إذ إن اتباع ذلك المبدأ يمكن أن يجنِّبنا المشكلة التي طرحها وينر. فإذا كان من الممكن للآلة أن تتعلم المزيد عن القيم البشرية مع استمرار عملها، فلا بد ألا تبلغ اليقين الكامل من ماهية تلك القيم.

ثالثًا: يجب على الآلة أن تكون قادرة على تعرُّف القيم الإنسانية، عن طريق ملاحظة الخيارات التي نتخذها نحن البشر.

قد يبدو المبدأ الأول والثاني مناقضان للبديهة، ولكنهما معًا يمكنهما تفادي مشكلة أن يكون للروبوت حافز قوي لتعطيل مفتاح الإيقاف الخاص به. باتباع هذين المبدأين، سيكون الروبوت متأكدًا من رغبته في تحقيق أقصى قدر من القيم الإنسانية، لكنه لن يعرف تحديدًا ماهية تلك القيم. وبذلك يحقق الروبوت نفعًا من إيقافه بالفعل، لأنه الآن يدرك أن الإنسان سيضغط على مفتاح الإيقاف لمنعه من فعل شيء يتعارض مع القيم الإنسانية. وهكذا سيكون لدى الروبوت حافز إيجابي للحفاظ على مفتاح الإيقاف سليمًا، مستمدًّا هذا الحافز مباشرة من عدم يقينه تجاه القيم الإنسانية.

أما المبدأ الثالث فهو مستقى من مجال متفرع عن الذكاء الاصطناعي يُدعى "التعلُّم المعزَّز المنعكِس" inverse reinforcement learning، أو IRL اختصارًا، والذي يهتم تحديدًا بأمر تعلُّم القيم الخاصة بكيان ما، سواءٌ أكان هذا الكيان إنسانًا أو كلبًا أو صرصورًا، وذلك من خلال مراقبة سلوكه. على سبيل المثال، عن طريق مراقبة الروتين الصباحي للإنسان، يتم تعليم الروبوتات قيمة القهوة بالنسبة للبشر. ولا يزال هذا المجال في مراحله الأولى، وإن كان يوجد الآن بعض من خوارزمياته العملية، التي أثبتت قدرتها على تصميم آلات ذكية.

مع تطور مجال التعلم المعزز المنعكس IRL، فإن عليه أن يجد طرقًا للتأقلُم مع حقيقة أن البشر غير عقلانيين، وليس في أفعالهم اتساق، وضعيفو الإرادة، ولديهم قدرات حاسوبية محدودة، ومن ثم فإن تصرفاتهم لا تعكس دائمًا قيمهم. كما أن البشر لديهم مجموعات متنوعة من القيم، وهو ما يعني أن الروبوتات لا بد أن تتمتع بالحساسية اللازمة أمام الصراعات المحتملة والتنازلات التي قد تحدث بين البشر. بالإضافة إلى ذلك، يجب أن يتعلم الروبوت أن بعض البشر هم الشر في أوضح صوره، ومن ثَم لا يجب أن يساعد هؤلاء أو يحتذي تصرفاتهم.

بالرغم من هذه الصعوبات، فإنني أعتقد أنه سيمكن للآلات أن تتعلم ما يكفي عن القيم الإنسانية، بحيث لا تشكل تهديدًا للجنس البشري. وإلى جانب المراقبة المباشرة للسلوك البشري، سيساعد الآلات في مهمتها حصولها على كميات هائلة من المعلومات المكتوبة والمرئية حول أناس يقومون بفعل أشياء معينة (وردود أفعال الآخرين تجاهها). إن تصميم الخوارزميات، التي يمكنها استيعاب تلك المعلومات، أسهل بكثير من تصميم آلات فائقة الذكاء. كما أن هنالك أيضًا حوافز اقتصادية قوية للروبوتات –وصانعيها- تدفعهم لفهم القيم الإنسانية وقبولها: فمثلًا، عند تصميم أحدهم روبوتًا منزليًّا على نحو خطأ، إلى الدرجة التي تجعله يطهو، مثلًا، قطة على العشاء، دون أن يدرك أن قيمتها العاطفية لدى أصحابها تفوق تمامًا قيمتها الغذائية، عندئذ ستجبَر المصانع على التوقف عن صناعة الروبوتات المنزلية بالكامل.

إن إيجاد حل لمشكلة الأمان سيكون أمرًا واعدًا بما فيه الكفاية للمضي قدمًا في مجال الذكاء الاصطناعي AI، وإن كان ليس بالسهولة المتوقعة. ربما يكون أمامنا عقود من الزمن يمكننا خلالها التخطيط لوصول الآلات فائقة الذكاء، لكن هذا لا يعني أن نتغافل عن تلك المشكلة، كما فعل بعض الباحثين في مجال الذكاء الاصطناعي.

في هذا الصدد، يعتقد البعض أن البشر والآلات يمكنهم التعايش معًا، طالما أنهم يشكلون معًا فريق عمل -لن يكون ذلك ممكنًا إلا إذا أصبحت للآلات والبشر أهداف مشتركة، بينما يقول آخرون: "يمكننا فقط أن نوقف تلك الآلات عن العمل"، كما لو أن الآلات فائقة الذكاء من الغباء إلى درجة عدم التفكير في تلك الاحتمالية، في حين لا يزال غيرهم يعتقد أن الذكاء الاصطناعي الفائق لن يكون له وجود أبدًا.

 وعلى الرغم من موقف شهير في تاريخ العلم كشف أن مستحيلات اليوم قد تكون حقيقة واقعة غدًا، ففي 11 سبتمبر من عام 1933، صرح العالم الفيزيائي الشهير إرنست رذرفورد بثقة تامة: "أي شخص يتوقع إمكانية الحصول على الطاقة من تحويل هذه الذرات فإنه واهم"، وعلى عكس زعم رذرفورد، توصل الفيزيائي ليو سزيلارد، في 12 سبتمبر من عام 1933 -أي في اليوم التالي مباشرة- إلى التفاعل النووي المتسلسل المستحث بالنيوترونات.

نُشر هذا المقال في الأصل تحت عنوان "هل ينبغي أن نخشى الروبوتات فائقة الذكاء؟"