يحقق الذكاء الاصطناعي بالفعل تقدمًا كبيرًا من حيث الاضطلاع بمهمات رتيبة مستنزفة للوقت يعزف عنها كثيرٌ من البشر. ومع ذلك تتباين مسؤوليات وعواقب تسليم العمل للآلات الذكية تباينًا شديدًا؛ فبعض المنظومات المستقلة توصي بالموسيقى والأفلام، وتوصي منظومات أخرى بعقوبات في المحاكم. بل إن منظومات ذكاء اصطناعي أكثر تطورًا سوف تتحكم على نحو متزايد في السيارات على طرقات المدن المزدحمة، مثيرةً بذلك أسئلة حول السلامة، وعمَّن يتحمل المسؤولية القانونية حين تقع الحوادث التي لا مفر منها.

غير أن الحجج الفلسفية حول تهديد الذكاء الاصطناعي لوجود البشر غالبًا ما تكون بعيدةً كل البُعد عن واقع تصنيع التكنولوجيا محل الاهتمام واستخدامها. فعلى الرغم من كل ما كُتب ونوقش بخصوص التعلُّم العميق ورؤية الآلة ومعالجة اللغات الطبيعية وغيرها من أوجه الذكاء الاصطناعي، ما زالت الآلات الذكية في مرحلة مبكرة نسبيًّا من تطورها. وبينما يتجادل الخبراء حول مخاطر الروبوتات المستقلة الواعية ذاتيًّا والخارجة عن السيطرة، فإن علماء الحاسوب ما زالوا متحيرين بشأن كيفية كتابة خوارزميات خاصة برؤية الآلة تستطيع التمييز بين صورة سلحفاة وصورة بندقية.

ومع ذلك فلا يزال من المهم التفكير في الكيفية التي سوف يتعامل بها المجتمع مع الذكاء الاصطناعي قبل أن يصبح قوةً متغلغلةً فعلًا في الحياة الحديثة. وقد أطلق باحثو مدرسة جون كينيدي للإدارة الحكومية بجامعة هارفرد وطلابها وخريجوها مشروع «مجتمع المستقبل» لهذا الغرض تحديدًا في عام 2014؛ بهدف الحث على إجراء حوار عالمي حول كيفية السيطرة على التكنولوجيات البازغة، ومنها الذكاء الاصطناعي على وجه الخصوص. وقد تحدَّثَتْ مجلة ساينتفك أمريكان مع نيكولاس إيكونومو، المستشار الأول بمبادرة الذكاء الاصطناعي التابعة لمجتمع المستقبل، والمدير التنفيذي لشركة H5 التي تكتب برمجيات تساعد شركات القانون على تحليل الوثائق الإلكترونية والبريد الإلكتروني وقواعد البيانات قبل جلسات المحاكم، وهو ما يُعرَف أيضًا بكشف الأدلة الإلكترونية. وقد تحدث إيكونومو عن الكيفية التي يمكن بها تحميل البشر المسؤولية القانونية (حتى لو كانت الآلة هي المسبِّبة للمشكلة)، وحول ما يقوله التاريخ لنا عن ضرورة استعمال المجتمع للتكنولوجيات الجديدة حين ثبوت توفيرها فوائد مثل تحسين مستوى الأمان.

[فيما يلي نص منقح للمحادثة]

ما المخاوف الرئيسية لديك حيال الذكاء الاصطناعي؟

أنا عالِم سياسة بحكم التدريب، إضافة إلى أنني من رواد المناداة بالتبنِّي المتدرج للذكاء الاصطناعي في المنظومات القانونية. وبذلك فأنا من المؤمنين بقوة بأنه يمكن للذكاء الاصطناعي أن يكون أداةً نافعة. غير أنني أعتقد أنه تجب السيطرة عليه لأنه ينطوي على مخاطر. وفي حين أن الناس يتكلمون عن المخاطر بطرق مختلفة، فإنني أكثر اهتمامًا بالخطر الذي ينطوي عليه ترك الآلات تتخذ قرارات تؤثر في حقوقنا أو حرياتنا أو حريتنا في اختيار الفرص. فنحن نتخذ قرارات لا تقوم على التفكير المنطقي فحسب، بل أيضًا على القيم والمبادئ والأخلاق والتعاطف والإحساس بالصواب والخطأ، وكلها أشياء لا تمتلكها الآلات بطبيعتها. يضاف إلى ذلك أنه يمكن تحميل الناس المسؤولية القانونية عن قراراتهم بطرق لا يمكن تطبيقها على الآلات.

على عاتق مَن يجب إلقاء المسؤولية القانونية عن قرارات الذكاء الاصطناعي؟

هذا يقودنا إلى مسألة الأهلية. في منظومات الذكاء الاصطناعي المستقلة ذاتيًّا بالكامل، بإمكانك القول بأن المسؤولية تقع على المُصَنِّع. لكن معظم الآلات الذكية اليوم ليست مستقلة ذاتيًّا، بل تعتمد على مُشَغِّل بشري. فإذا لم يكن ذلك الشخص مؤهلًا بقدرٍ كافٍ لاستعمال الذكاء الاصطناعي استعمالًا صحيحًا عند اتخاذ قرارات مهمة في الطب أو القانون أو الخدمات المالية، على سبيل المثال، فهل يجب تحميله مسؤولية الأخطاء؟ خذ مثلًا قضية ولاية ويسكنسون ضد لوميس [في عام 2016] حين اعتمد قاضٍ جزئيًّا على خوارزمية صندوق أسود سرية في تقدير ما إن كان المدعى عليه يواجه خطر العودة إلى الإجرام. قدَّرت الخوارزمية أنه [لوميس] عُرضة بشكل كبير لمعاودة الإجرام، إلا أنه لم يُكشَف للمحكمة أو للمدَّعى عليه عن المنهجية التي استعملها الذكاء الاصطناعي في توليد التقدير. اعتمد القاضي على تلك التوصية في إصدار حكم على لوميس بالسجن مدةَ ستِّ سنوات. ورفضت المحكمة الأمريكية العليا نظر تلك القضية، وبذلك أصبحت من قوانين البلاد. ومن الممكن الآن أن يصدر بحقك حكم بالسجن مدةً طويلة بناءً على تقدير تفعله خوارزمية ذكاء اصطناعي، من دون أن تستطيع الطعن في الحكم. هل كان القاضي أهلًا لفهم ما إن كان تقدير الخوارزمية صحيحًا ومستندًا إلى برهان تجريبي سليم؟ الجواب على الأرجح هو لا؛ لأن القضاة والمحامين ليسوا في المعتاد من العلماء المدرَّبين.

كيف يمكن تطوير منظومة ذكاء اصطناعي شفافة يستطيع معظم الناس فهمها؟

صحيحٌ أن الذكاء الاصطناعي يتسم بالشفافية الكاملة، إلا أننا نعجز، كمواطنين عاديين، عن فهم ما يفعله. ربما يستطيع العلماء فهمه، لكن كي نتمتع نحن المواطنين بالتمكين، يجب أن نعرف إن كان الشيء سوف يعمل جيدًا على أرض الواقع أم لا. أحد النماذج التي يمكن تدبُّرها هو السيارة. فيمكن للشخص العادي أن يرى السيارة وهي تُصنَّع من البداية إلى النهاية، ومع ذلك فإنه لا يعرف هل ستكون قيادة تلك السيارة آمنةً أم لا. وأنت تثق بأن السيارة آمنة لأنك تعتمد على التقييمات التي يوفرها معهد تأمين السلامة على الطرق السريعة، الذي يُجري تجارب اصطدام للسيارات كل يوم لتحديد مدى أمانها. [وبهذا] أمتلك الآن، بصفتي مواطنًا، معلومات أستطيع استعمالها لتقييم منظومة اجتماعية تقنية شديدة التعقيد تشتمل على التكنولوجيا والذكاء البشري. إن بحوزتي معايير بسيطة جدًّا تريني إن كانت السيارة آمنةً أم لا. وعلى الرغم من أن شفافية الخوارزميات مفيدة، فإن معرفة إن كانت فعالة في التطبيقات الواقعية التي صُمِّمت من أجلها أم لا -حين تكون بين أيدي مشغلين بشر على الأغلب- هي المفتاح.

عندما يكون الناس على دراية بمخاطر الذكاء الاصطناعي، هل ينقل ذلك المسؤولية القانونية إلى الشخص الذي يستخدم الذكاء الاصطناعي أو يحمِّله عواقبها؟

المسؤولية مسألة قانونية كبرى. في حالة السيارات الذاتية القيادة مثلًا، يمكنك النظر إلى مقدار السيطرة على السيارة الذي يملكه السائق. إذا لم يكن للسائق أي سيطرة، فإنك تتوقع وضع مسؤولية أكبر على عاتق المُصَنِّع والشركات الأخرى المشارِكة في تجميع السيارة. يصبح الأمر أكثر تعقيدًا عندما تكون للسائق سيطرة أكبر، وحينئذٍ يمكن أن تبحث عمن اتخذ القرار الذي أدى إلى الحادثة. وثمة سؤالان لافتان مرتبطان بالمسؤولية القانونية. وإذا التزمنا بمثال السيارات، لنفترض [جدلًا] أنه لو جرى نقل كل الناس بواسطة سيارات ذاتية القيادة، فإن ذلك يمكن أن يقلِّص وفيات الحوادث بـ20 ألفًا في السنة. إذا كان الأمر كذلك، فإن هدف السياسة العامة سوف يكون تشجيع الناس على استعمال السيارات الذاتية القيادة. لكن الناس يخافون هذه التكنولوجيا في الوقت نفسه. ولذا يمكنك تخيل طريقتين لدعم سياستك من أجل الحفاظ على تلك الأرواح الـ20 ألفًا. فقد تلجأ إلى تصميم سيارات ذاتية القيادة تمنح الأولوية لسلامة الركاب على سلامة المشاة والسيارات الأخرى. بكلمات أخرى، تجعلك أكثر أمانًا وأنت داخل السيارة منك وأنت خارجها. يمكن لهذا أن يشجع الناس على تجاوُز مخاوفهم من السيارات الذاتية القيادة، وبذلك تدعم أغراض سياستك. لكن المجتمع سوف يكون حينئذٍ قد أَولى حياة بعض الأشخاص -أولئك الذين يركبون تلك السيارات- قيمةً أكبر من التي يوليها لحياة الآخرين.

وثمة طريقة أخرى لتحفيز الناس على استعمال السيارة الذاتية القيادة، وهي أن تقول ببساطة إن من قبيل الإهمال قيادة سيارة عادية إذا كنت تعلم أن السيارات التي يقودها ذكاء اصطناعي أكثر أمانًا. ثمة قضية من ثلاثينيات القرن المنصرم تُعرَف بقضية تي جيه هوبر، فُقدَت فيها بارجتان في عاصفة لأن الشركة المالكة لهما لم تزودهما بأجهزة اتصال لاسلكي. وكان القرار أنه إذا جرى تطوير تكنولوجيا جديدة فعالة على نحو واضح، وجب استعمالها لأغراض الوقاية. وفي نهاية المطاف، هل سيكون سائق السيارة أكثر تحمُّلًا للمسؤولية القانونية إذا اختار القيادة بنفسه بدلًا من ركوب سيارة ذاتية القيادة أكثر أمانًا من الناحية الإحصائية؟

كيف يمكن تطوير سياسة عامة للذكاء الاصطناعي حين تكون التكنولوجيا نفسها لا تزال في قيد التطوير والتعريف؟

لست متيقنًا من أن تعريف الذكاء الاصطناعي سوف يكون مفيدًا بدرجة كبيرة. فنحن ما زلنا لا نمتلك تعريفًا مقبولًا عالميًّا للذكاء، ولذا سيكون من الصعب وضع تعريف للذكاء الاصطناعي. إن المعايير التي تحكم استخدام الذكاء الاصطناعي يجب أن تكون واسعةً بقدرٍ كافٍ لقبول الابتكارات الجديدة مهما كان مصدرها. لكنها يجب أن تكون ضيقةً بقدرٍ كافٍ بحيث تضع قيودًا ذات مغزى على طريقة استخدامه وعلى كيفية تأثيره في الناس. وفي هذا الشأن ستتألف العملية الفعالة من أربع مراحل: وسنبدأ بالقيم. ماذا نريد من الذكاء الاصطناعي أن يفعله لنا؟ ومن هذه النقطة ننتقل إلى المبادئ الأخلاقية: كيف يجب على الذكاء الاصطناعي أن يؤدي عمله؟ ثم نعمل على صياغة توصيات عامة بشأن السياسة المتبعة، وفي النهاية نبحث الضوابط التقنية الفعلية اللازمة لتنفيذ تلك السياسة.