أمضيت سنوات في العمل مع بعض أكبر منصات التواصل الاجتماعي في العالم، ورأيت كيف يمكن لنوع معين من الإشراف على المحتوى أن يحسّن المحادثات، وكيف يمكن لنوع خطأ – أو غيابه تماماً – أن يؤدي إلى الفوضى، وينشر الكراهية، ويمتد إلى العنف في العالم الحقيقي.عندما بدأت في هذا المجال، كانت فرق الثقة والأمان التي قمت بقيادتها تعتمد على مبدأ بسيط: يجب أن يكون الناس قادرين على التعبير عن أنفسهم طالما أنهم لا يعرّضون الآخرين للخطر. ومع مرور الوقت، أدركت مدى تعقيد تعريف «الخطر» في بيئة رقمية تضم مليارات المستخدمين.وتجلّت صعوبة هذا العمل بوضوح عندما نشر مغني الراب المعروف سابقاً باسم «كانييه ويست» (أو «يي») سيلاً من الإهانات المعادية للنساء واليهود أمام أكثر من 30 مليون متابع على منصة «إكس».ويشير بحثي في الإصدارات المؤرشفة عن منشورات «يي» المحذوفة إلى أن المنشور الوحيد الذي تم وضع تحذير عليه من قبل «إكس»، لاحتمالية انتهاكه سياسات خطاب الكراهية، هو المنشور الذي ذكر فيه أسماء مسؤولين تنفيذيين معينين. أما الإساءة إلى اليهود، فردياً وجماعياً، واستخدام رموز النظام النازي الذي قتل ستة ملايين يهودي – وهو أمر يشير «إكس» صراحةً إلى أنه مثال على الصور البغيضة – فلم يتم التعامل معه على ما يبدو. هذا نهج نموذجي لما رأيناه في «إكس» التابع لإيلون ماسك، حيث تم التخلي عن التنفيذ الاستباقي لسياسات مكافحة الكراهية، والتي كانت تعني التدخل أحياناً قبل أن يصبح المحتوى عاماً أو تقليل عدد الأشخاص الذين يمكنهم رؤيته، لصالح نظام «الملاحظات المجتمعية»، وهو نظام يعتمد على المستخدمين لإضافة سياق بعد نشر المحتوى. وبدورها، قامت شركة «ميتا»، التي تمتلك فيسبوك، بتقليص تدخلاتها مؤخراً، حيث أنهت برنامج التحقق من الحقائق التابع لجهات خارجية في الولايات المتحدة. ويرى البعض في هذه التغييرات عودةً إلى حرية التعبير، لكن السؤال الذي يبقى هو: هل ينبغي لمحتوى مثل منشورات «يي» أن يتم الترويج له عبر خوارزميات المنصات؟ أين يكمن الخط الفاصل بين حق التعبير وحق الوصول؟أعترف بأن أي نظام إشراف على المحتوى لن يكون مثالياً. لقد حاولنا تحديد أين نرسم الخط الفاصل، مع العلم بأنه، للتحكم في معظم المحتوى الضار، لا بد أن نحذف أحياناً منشورات بريئة عن طريق الخطأ، وأحياناً لا يكون من السهل على المشرفين تحديد ما إذا كان منشور ساخر يتجاوز الخط الفاصل إلى خطاب الكراهية، أو ما إذا كان منشور يعبّر عن قلق حقيقي بشأن فعالية اللقاحات قد انحرف إلى معلومات مضللة. لا يوجد إجماع عالمي على تعريف «الضرر»، وبدون ضبط دقيق للسياسات والنماذج القائمة على التعلم الآلي، تحدث الأخطاء.لكن لا يمكننا أن ندع البحثَ عن الكمال يعوق تحقيق الأفضل. على مدار السنوات، رأيتُ كيف يمكن أن يؤدي النهج غير المتدخل إلى انتشار خطاب الكراهية والمعلومات المضللة. عندما واجهت دول بأكملها اضطرابات سياسية أو أزمات صحية عامة، ساهمت المعلومات المضللة المنتشرة على وسائل التواصل الاجتماعي في تعريض السلامة العامة للخطر. يمكن للمشرفين من البشر والأنظمة الآلية، ومدققي الحقائق المستقلين، والتطبيق السريع للسياسات الواضحة أن تحد من انتشار المحتوى الضار. والفشل في القيام بذلك يمكن أن يؤدي إلى انتشار خطاب الإبادة الجماعية، كما حدث في ميانمار عندما تم استخدام المعلومات المضللة للتحريض ضد الأقليات.أدوات الإشراف القائمة على المجتمع، مثل «ملاحظات المجتمع» في «إكس» أو نظام المشرفين المتطوعين في «ريديت».. مفيدة، لكنها لا يمكن أن تحل محل الإشراف الاستباقي الذي تقوم به المنصات نفسها. لقد شاهد الملايين منشورات «يي»، وإذا اعتمدت المنصة بشكل كبير على الإشراف المجتمعي، دون استراتيجيات أخرى تحد من التوزيع أو تقدم تحذيرات، فإن الضرر يحدث غالباً قبل أن يتمكن أي شخص من التدخل.إن الاعتماد على المستخدمين للإبلاغ عن المحتوى أو التحقق من صحته ينقل العبء إلى ضحايا التحرش أو التضليل. أحد الجوانب الأكثر إرهاقاً في الإشراف المجتمعي هو أنه يطلب في كثير من الأحيان من الأشخاص المستهدفين أن يقوموا بأنفسهم بمراقبة المحتوى الذي يهاجمهم. وكما رأيتُ بنفسي، فإن هذا يمكن أن يدفع الناس إلى مغادرة المنصات تماماً، وهو نزوح يُضعف التنوع المطلوب لنقاش مدني صحي. وعندما أصبحت وسائل التواصل الاجتماعي سائدةً، اعتبرها الكثيرون مجرد ساحة لنشر الصور الشخصية وتحديثات الحالة. لكنها اليوم أصبحت محوراً للتواصل حيث يشن السياسيون حملاتهم، وتسوق الشركات لمنتجاتها، وينشر الصحفيون الأخبار العاجلة. وبدون إشراف محترف، يصبح من السهل أن تزدهر السُّمية، ويستغل الأشخاص الذين ينوون الإيذاء هذه المساحة، وتتلاعب الروبوتات الأجنبية بالنقاش الوطني. وحتى المحتوى الذي يُحذف يظل موجوداً، ويُعاد نشره عبر لقطات شاشة وإعادات التغريد، مما يغذي الكراهية ويشجع الآخرين. وقد توفر «ملاحظات المجتمع» في النهاية سياقاً، لكن السياق لا يكون على الدوام كافياً لتقليل الضرر. وكمستخدمين، يجب أن نكون يقظين، وأن نبلغ عن المحتوى الذي يتجاوز الخطوط الحمراء، وأن نتحقق من المصادر قبل مشاركة الادعاءات المشكوك فيها، وأن ندعم السياسات التي تعزز التبادل الحر للأفكار دون السماح بالإساءة. لكن كما نتوقع من كل مدينة أن تحتوي على إشارات مرور وخدمات طوارئ، يجب أن نتوقع ونطالب بأن تكون البيئات الرقمية محمية بشكل مماثل. وعلى الشركات الاستثمار في المتخصصين الذين يفهمون السياقات الثقافية، وفروق اللغة الدقيقة، وكيفية تطور التهديدات عبر الإنترنت. وينبغي لها أن تستفيد من أنظمة الذكاء الاصطناعي المتقدمة التي يمكنها تحليل النصوص والصور وأشكال التواصل الأخرى، وكذلك السياق الذي يتم فيه مشاركة المحتوى، لتحديد المحتوى والسلوك الخطيرين بدقة واتساق أكبر. وعليها أن تستثمر في تحسين هذه الأنظمة، بدلاً من تقليل الإشراف لتوفير التكاليف أو الرضوخ لضغوط سياسية معينة. كما يجب أن يتمتع المنظمون أو هيئات الرقابة المستقلة بالسلطة والخبرة لضمان التزام هذه المنصات بمسؤولياتها.وسواء أحببنا ذلك أم لا، فإن وسائل التواصل الاجتماعي هي الساحة العامة للقرن الـ21. وإذا سمحنا لها بأن تتحول إلى ساحة معركة من الكراهية والتضليل غير المقيدين، فسيكون الضحايا الأوائل هم الفئات الأكثر ضعفاً بيننا، ثم سندفع جميعاً الثمن لاحقاً. حرية التعبير ضرورية لديمقراطية صحية، لكن منصات التواصل الاجتماعي لا تقتصر على استضافة الخطاب فحسب، بل تتخذ قرارات بشأن أي خطاب يتم الترويج له ومدى انتشاره. ويوفر الإشراف على المحتوى، رغم عيوبه، إطاراً يمنع الأصوات الأكثر كراهية من إقصاء الجميع.
