في النصف الأول من شهر إبريل عقد الكونجرس الأمريكي جلسة استجواب على مدار يومين لمارك زكربيرج، مؤسس شركة "فيسبوك" ورئيسها التنفيذي، حول سياسات الخصوصية في شركته، وعجزها الظاهر عن منع سوء استخدام منصة التواصل الاجتماعي الخاصة بها من بعض الجهات التي تبث الكراهية أو الإرهاب أو تروِّج للدعاية السياسية. ووسط اعتذارات زكربيرج عن عدم بذل الجهد الكافي لحماية خصوصية المستخدمين والحد من انتشار المعلومات الزائفة والمضلِّلة على الموقع، فقد حرص أكثر من مرة على طمأنة نواب الكونجرس بأن تقنيات الذكاء الاصطناعي ستحل قريبًا العديد من مشكلات "فيسبوك". ويعتمد مدى صدق ادعائه على الخطة المحددة لشركته لاستخدام الذكاء الاصطناعي، وسرعة تطور هذه التكنولوجيا خلال السنوات القليلة المقبلة.

استشهد زكربيرج أمام كلٍّ من لجنة القضاء ولجنة التجارة والعلوم والنقل في مجلس الشيوخ ولجنتي الطاقة والتجارة في مجلس النواب بذكر عدة نطاقات تفوَّق فيها الذكاء الاصطناعي. وفي جلسة الاستماع التي عُقدت بمقر مجلس الشيوخ يوم الثلاثاء العاشر من إبريل، أكد زكربيرج أن خوارزميات الذكاء الاصطناعي في فيسبوك نجحت بالفعل في العثور على 99 في المئة من منشورات الدعاية والتجنيد الإرهابية التي كان يبثها تنظيم الدولة الإسلامية في العراق وسوريا (داعش أو ISIS)، وحسابات الفيسبوك المرتبطة بتنظيم القاعدة، وقام بحذفها. لكن منظمة "مشروع مكافحة التطرف" (CEP) غير الحكومية وغير الربحية التي تراقب أنشطة الجماعات الإرهابية وتبلغ عنها، قالت في اليوم نفسه إن مزاعم فيسبوك غير صحيحة. وأصدرت المنظمة بيانًا صرحت فيه بأنها لا تزال تجد "أمثلة للمحتوى المتطرف وخطاب الكراهية على فيسبوك، بصورة منتظمة".

ذكّر مؤسس فيسبوك نواب الكونجرس مِرارًا بأنه كان قد أطلق الشبكة من غرفة إقامته الجامعية في عام 2004، وأقر عدة مرات بأن منهجه في مراقبة المحتوى ظل مدةً طويلة يعتمد على بلاغات أعضاء الشبكة عن سوء الاستخدام. وقد أدى هذا النهج -وفق قوله- بمرور السنين إلى فشل الشركة في العثور سريعًا على الإعلانات التمييزية وإزالتها، وكذلك المحتوى الذي يصدر الكراهية نحو جماعات معينة، ورسائل الإرهابيين. كما لم تكن فيسبوك مهيأةً للتعامل مع سيل المقالات الإخبارية المضللة التي نشرتها جماعات روسية في محاولة تأثيرها على الانتخابات الرئاسية الأمريكية عام 2016. ووفق شهادة زكربيرج، فإن تقنيات الذكاء الاصطناعي تساعد الشركة بالفعل في التغلُّب على بعض هذه المشكلات، كما قال أيضًا إن الشركة استخدمت هذه التكنولوجيا في البحث عن "عشرات الآلاف" من الحسابات التي تسعى للتأثير على المنتخِبِين قبل الانتخابات السياسية في فرنسا وألمانيا ودول أخرى خلال العام الماضي، وحذفها.

وأكد زكربيرج صعوبة تطوير البرمجيات التي تستطيع أن تتعرّف تلقائيًّا على الاعتداءات اللفظية، وأنه أمامنا من 5 إلى 10 سنوات إضافية لنصل إليها. كما قال إن التحديات الرئيسية هي تحديد ما الذي يرقى إلى كونه خطاب كراهية، وتدريب خوارزميات الذكاء الاصطناعي على تمييزه بعدة لغات. وردًّا على الانتقادات بأن فيسبوك قد وفرت منبرًا للتحريض على العنف ضد مسلمي الروهينجا في ميانمار (ويُطلق عليها بورما أيضًا)، وأنها كانت بطيئةً في التحرك لإزالة مثل هذا المحتوى، قال زكربيرج إن شركته لم تكن مهيأةً لمنع سوء استخدام منصتها. وأخبر أعضاء المجلس أنه بالإضافة إلى تطوير برامج الذكاء الاصطناعي لتمييز خطاب الكراهية آليًّا في المستقبل، تعمل الشركة على تعيين العشرات من الناطقين باللغة البورمية لمراقبة الأنشطة الخبيثة الموجهة ضد الروهينجا. وأضاف بأنه حتى تصبح البرامج جاهزة، سيظل هناك "معدل أعلى من الأخطاء في تمييز مثل هذا المحتوى عن المستوى الذي يرضيني".

لدى شركة فيسبوك نحو 15 ألف شخص يعملون على مراجعة مستوى الأمان والمحتوى، وتخطط الشركة لتعيين 5 آلاف آخرين بحلول نهاية العام. يقول زكربيرج: "الأمر أشبه بسباق التسلح"، مشيرًا إلى أن عام 2018 هو عام مهم للانتخابات في الولايات المتحدة وغيرها، وأن أعداء فيسبوك سيواصلون تحسين كفاءتهم في استخدام المنصة لنشر معلومات مضلِّلة.

ويقول ستوارت راسل، أستاذ علوم الحاسب الآلي والهندسة في جامعة كاليفورنيا في بيركلي: "أعتقد أن ما يقوله زكربيرج يمكن أن يتم، لكن إذ لم تُنشر الأساليب لذلك والنتائج، لا يسعني تأكيد ما إذا كانت فيسبوك قادرةً على الوصول للدقة المطلوبة أم لا". وأضاف قائلًا: "من شأن الجمع بين تقنيات الذكاء الاصطناعي ومشاركة جمهور المستخدمين في تمييز المحتوى، مع استخدام طرق استدلال ملائمة لتقدير كفاءة التمييز، أن يتمكَّن من مسح كمية كافية من المنشورات غير الملائمة، حتى يصبح نشرها عملًا غير مثمر".

ومن جانبه يقول دين بوميرلو، وهو باحث مساعد في معهد علم الروبوتات -جامعة كارنيجي ميلون: إن قدرة الذكاء الاصطناعي على تحديد احتواء منشور على فيسبوك على -أو إشارته إلى- معلومات خطأ يتطلب أن يكون البرنامج قادرًا على فهم العبارات والتراكيب اللغوية، ومعاني الكلمات المختلفة في مختلِف السياقات. وأضاف قائلًا: "تحتاج إلى المنطق لفهم ما يعنيه الناس، وذلك يتجاوز الإمكانيات الحالية للذكاء الاصطناعي". فقدرة الناشر على إجراء تغييرات طفيفة في النص أو الصور أو مقاطع الفيديو التي يتم تمييزها على أنها "مرفوضة" تزيد من تعقيد قدرة الذكاء الاصطناعي على مساعدة فيسبوك. ويضيف بوميرلو أن تغيير النصوص وقص الصور وتحرير مقاطع الفيديو، كلها تجعل من الصعب على البرنامج أن يقوم بعملية المضاهاة المبسطة للأنماط مع استمرار انتشار المحتوى وتَغيُّره. كما يقول إن النهج قريب المدى الذي قد يعمل هنا هو أن تزوِّد فيسبوك آلافَ الموظفين الذين تعيِّنهم لمراقبة المحتوى بأدوات ذكاء اصطناعي تمكِّنهم من العثور على الأخبار الزائفة وغيرها من المحتوى غير المرغوب فيه، وتحليله.

وبالفعل تسير جهود فيسبوك في تطوير برامج الذكاء الاصطناعي على قدم وساق. كانت الشركة قد أطلقت مختبر فيسبوك لأبحاث الذكاء الاصطناعي (FAIR) عام 2013، بقيادة رائد الذكاء الاصطناعي يان لوكا، الذي تغيرت وظيفته في بداية العام الجاري ليصبح كبير علماء الذكاء الاصطناعي في فيسبوك. ركز لوكا بحوث المختبر على تطوير قدرات التوقع التي من شأنها أن تمكِّن الموقع من وضع تخمينات مدروسة بشأن ما يريده المستخدمون من أجل التفاعل معهم على نحوٍ أفضل. ويتضمن ذلك أن تُعدّل صفحات الأخبار الرئيسية لتتناسب أكثر مع المستخدم، وأن تكون الإعلانات موجهة، بالإضافة إلى إحداث تحسينات في برامج الدردشة الآلية "شات بوتس" chatbots -وهي برامج حاسوبية تتحلى بالذكاء الاصطناعي، ومصممة لتقديم المعلومات، وتمكين الشراء عبر شبكة الإنترنت، وتقديم خدمة العملاء. والخوارزميات نفسها المصمَّمة لتحسين قدرة هذه البرامج على تعرُّف اللغات المختلفة وفهم الحوار، ستكون تحديدًا مناسِبة لقدرة فيسبوك على تمييز المحتوى المرفوض في جميع أنحاء العالم.

من المخاوف التي تكررت في جلستي الاستماع، سواء في مجلس الشيوخ أو مجلس النواب، ما يتعلق بقدرة فيسبوك على تجنُّب الانحياز السياسي عند تحديد المحتوى المرفوض. وردَّ زكربيرج على ذلك في جلسة العاشر من إبريل قائلًا إن الشركة لديها فريق يركِّز على كيفية التوظيف الأخلاقي لبرمجيات الذكاء الاصطناعي. فسيكون على الشركة في نهاية المطاف أن تعتمد على برامج الذكاء الاصطناعي لتحديد المحتوى الذي قد يكون مرفوضًا أو يتطلب مراجعة، كما قال فلوريان شاوب، أستاذ مساعد بعلم المعلومات في جامعة ميتشيجن. وأضاف قائلًا: "لا يمكنهم تعيين عددٍ كافٍ من البشر لمراقبة كل منشور يُرفع على فيسبوك. فالتحدي الأكبر والشيء الذي ينبغي أن نقلق بشأنه كمجتمع، هو أن يصبح فيسبوك هو الرقيب على أخلاقنا. وفي هذه الحالة، ستكون مجموعة من الموظفين في فيسبوك -وليس المجتمع- هم مَن يقررون أيَّ المحتوى مرفوض أو مشبوه".

كانت شركة فيسبوك قد أثارت غضب الجهات التشريعية بسبب تبيُّن استخدام مجموعات مرتبطة بجهاز الاستخبارات العسكرية الروسي للمنصة لسنوات، وصولًا إلى انتخابات عام 2016. اكتشفت الشركة 470 حسابًا وصفحةً تُسهِم بحملة تضليل تديرها وكالة أبحاث الإنترنت (IRA) الروسية. على مدار عامين، أنفقت الوكالة نحو 100 ألف دولار على أكثر من 3 آلاف إعلان على فيسبوك. لكن القشة التي قصمت ظهر البعير والتي أدت لوقوف زكربيرج أمام لجان مجلسي الشيوخ والنواب، كانت الفضيحة الأخيرة التي قام فيها الباحث بجامعة كامبريدج أليكساندر كوجان بتسليم بيانات نحو 87 مليون مستخدم في فيسبوك وأصدقائهم دون إذنهم، إلى شركة "كامبريدج أناليتيكا" Cambridge Analytica المتخصصة في البيانات السياسية والتي استعانت بخدماتها حملة الرئيس دونالد ترامب في انتخابات عام 2016.

يقول شاوب: "يبدو أن فيسبوك تمر الآن بمرحلة إعادة حسابات، وقد بدأت الآن تدرك قوة تأثير منصتها على المجتمع. لفترة طويلة كانت الشركة تعتقد أنها تؤدي دورًا اجتماعيًّا عظيمًا من خلال مد قنوات التواصل بين الناس، والآن تدرك أنه في واقع الأمر ينطوي ذلك على قدر كبير من المسؤولية. يبدو ذلك نوعًا من التحوُّل، لكن في الوقت نفسه ليست تلك هي المرة الأولى التي نسمع فيها زكربيرج يعتذر عن حماقات صدرت على موقع فيسبوك".

يقول بوميرلو إن السؤال الأهم الآن يتعلق برغبة شركة فيسبوك في التغيير، أكثر مما يتعلق بقدرتها على تطوير برامج الذكاء الاصطناعي والتقنيات الأخرى المطلوبة لحماية خصوصية أعضائها بشكل أفضل، ومنع انتشار المحتوى العنيف أو المضلِّل. ويضيف قائلًا: "يعتمد نموذج الأعمال الأساسي على المحتوى المثير، لذا فمن غير الواضح أن التخلُّص من كل الأشياء التي قد تثير ضجةً سيصب في مصلحة فيسبوك".