نشرت صحيفة الغارديان وثيقة مسرّبة من داخل إدارة شبكة التواصل الاجتماعي فيسبوك، تحوي على أكثر من 100 جدول ومخطط وعنوان لكتيبات تعليمية حول سياسة الفيسبوك الجديدة في حذف المنشورات المسيئة. تؤكّد الغارديان أن وضع هذه القواعد استغرق عامًا كاملًا. وردت مديرة قسم إدارة الجودة في شركة فيسبوك على استفسار لـ صحيفة “دير شبيغل” الألمانية حول صحة هذه الوثيقة، بتأكيدها أن المعيار الأهم لإدارة فيسبوك هو أن يشعر مستخدمو الموقع بالأمان: “نعمل بجدٍ على أن يكون فيسبوك آمنًا وأن نوفر بيئة لحرية الرأي في الوقت ذاته”.
إذا كانت هذه الوثيقة التي سرّبتها الغارديان صحيحة، فإنها ستكون المرة الأولى التي تُسرّب فيها معلومات عن القواعد التي تعتمدها الشبكة لحذف المنشورات إلى الصحافة، فكل التسريبات السابقة كانت مجرّد نقاشاتٍ بين موظفي الشبكة العاملين في ألمانيا والمسؤولين عن تدقيق المحتوى.
كانت إدارة موقع فيسبوك، أعلنت الشهر الماضي، عن توظيف 300 مراقب جديد لمحتوى المنشورات وذلك بعد النقاش الذي تلا جريمة القتل التي بُثت على الموقع مباشرة، ويرتفع بذلك عدد المراقبين في الشركة إلى 4500 موظف، ويعمل هذا الفريق على فحص المنشورات التي تم التبليغ عنها بناءً على القواعد المنصوص عليها، ويحتاج الفريق أحيانًا إلى 10 ثوانٍ لاتخاذ قرار حول المنشور، ويتوقّع الموقع أن يرتفع عدد الأسئلة التي يتلقاها الفريق أسبوعيًا إلى 6.5 مليون سؤال أسبوعيًا حول حقيقة حسابات المستخدمين على فيسبوك.
قواعد بحاجة إلى توضيح توفّر الوثيقة المسرّبة، لمحة عن قواعد الحذف التي يتّبعها موقع فيسبوك في حذف المنشورات، ففي معظم الحالات يتلقى المستخدم إشعارًا بحذف منشوره دون توضيح السبب، إذ لا يرغب الموقع بنشر الأسباب التي دفعته لهذا القرار.
إحدى القواعد التي نشرتها الغارديان تنص على أن الموقع يسمح بنشر كل فنٍ يدوي يظهر عريًا أو تلميحات جنسية، بينما يمنع نشر أي فنٍ رقمي (تم تصميمه عن طريق الحاسوب) يحتوي نفس المحتوى، حتى مقاطع الفيديو التي تصور عمليات إجهاض تعبر من المواد المسموح نشرها طالما أنها لا تظهر أي مشاهد عري، أما بالنسبة لمقاطع الفيديو التي تصور مشاهد موت عنيفة، فلا يتم حذفها بشكل أوتوماتيكي، فهذه المقاطع –وفقًا للفيس بوك- رغم أنها مزعجة إلا أنها مهمّة لزيادة الوعي حول جرائم الحرب أو الأمراض العقلية.
أما بالنسبة إلى مقاطع الفيديو التي تُبث مباشرة على الموقع – والتي تصوّر أشخاصًا بحاجة إلى مساعدة – فلن يتم حذف هذه المقاطع إلا إذا لم يعد هناك أي طريقة لمساعدة هؤلاء.
ترى مونيكا بيكيرت المسؤولة عن قسم صياغة سياسات الفيسبوك التحريرية أنه من الصعب وجود إجماعٍ على ما يُسمح نشره، فالموقع يمتلك أكثر من ملياري مستخدم حول العالم: “لدينا مجتمع عالمي متعدد، ولكل شخصٍ منهم تصوره الشخصي لما هو مسموح وما هو ممنوع”.
أخيرًا صرحت إدارة الموقع لصحيفة الغارديان- دون الخوض في التفاصيل- أن الموقع ينوي تصميم برمجيات تتمكّن من حذف المحتوى المخالف قبل ظهوره على الموقع، دون المساس بحق الناس حول العالم بمناقشة الأحداث الجارية.