أداوت وتكنولوجيا

تتلقى المحكمة العليا في Facebook استئنافًا كل 24 ثانية


ميتا مجلس الرقابة، هيئة المحكمة العليا التي تم تشكيلها للتحقق من قرارات الإشراف على محتوى Facebook و Instagram ، تلقى ما يقرب من 1.3 مليون استئناف لقرارات عملاق التكنولوجيا العام الماضي. هذا الرقم الضخم يصل إلى حد الاستئناف كل 24 ثانية ، 3537 حالة في اليوم. تضمنت الغالبية العظمى من هذه الاستئنافات انتهاكات مزعومة لاثنين فقط من معايير مجتمع ميتا: العنف / التحريض وخطاب الكراهية.

أرقام الاستئناف جزء من tتقرير مجلس الرقابة السنوي لعام 2022 ، الذي تمت مشاركته مع Gizmodo الثلاثاء. استأنف مستخدمو Facebook و Instagram قرار Meta بإزالة المحتوى الخاص بهم 1290942 مرة ، وهو ما قال مجلس الرقابة إنه يمثل زيادة بنسبة 25 ٪ في عدد الطعون على مدار العام السابق. ويتعلق ثلثا هذه النداءات بالعنف المزعوم / التحريض وخطاب الكراهية. يوضح الرسم البياني أدناه النسبة التقديرية للطعون التي تلقاها مجلس الرقابة ، مقسمة حسب نوع المحتوى المخالف ، منذ أن بدأ في تلقي الطلبات في أواخر عام 2020. على الرغم من انخفاض نداءات خطاب الكراهية ، فقد ارتفعت النداءات المتعلقة بالعنف / التحريض بشكل كبير في الآونة الأخيرة سنين.

صورة لمقال بعنوان Facebook المحكمة العليا تتلقى استئنافًا كل 24 ثانية

لقطة شاشة: مجلس الرقابة

جاء الجزء الأكبر من هذه النداءات (45٪) من الولايات المتحدة وكندا ، اللتين تمتلكان بعضًا من أكبر قواعد مستخدمي Facebook و Instagram في العالم. كان المستخدمون الأمريكيون والكنديون أيضًا على Facebook و Instagram لفترة طويلة نسبيًا. تضمنت الغالبية العظمى من طلبات الاستئناف (92٪) مستخدمين يطلبون استعادة حساباتهم أو محتوياتهم مقارنة بحصة أصغر بكثير (8٪) طالبوا بإزالة محتوى معين.

قال مجلس الرقابة: “من خلال تقديم هذه التوصيات علنًا ، ومراقبة استجابات Meta وتنفيذها علنًا ، فقد فتحنا مساحة لحوار شفاف مع الشركة لم يكن موجودًا من قبل”.

نقض مجلس الرقابة قرار Meta في 75٪ من قرارات القضية

على الرغم من تلقيه أكثر من مليون استئناف العام الماضي ، فإن مجلس الرقابة يتخذ قرارات ملزمة فقط في عدد قليل من القضايا البارزة. من هؤلاء 12 قرارًا منشورًا في عام 2022، ألغى مجلس الرقابة قرار الإشراف على المحتوى الأصلي لشركة Meta بنسبة 75٪ من الوقت ، وفقًا لتقريره. في 32 حالة أخرى معروضة للنظر فيها ، قررت شركة Meta أن قرارها الأصلي غير صحيح. قد لا يبدو إجمالي 50 حالة للمراجعة كثيرًا مقارنة بملايين الطعون ، لكن مجلس الرقابة يقول إنه يحاول تعويض هذا التباين من خلال اختيار الحالات التي “تثير المشكلات الأساسية التي تواجه أعدادًا كبيرة من المستخدمين حول العالم” عن قصد. بعبارة أخرى ، يجب أن تتناول هذه الحالات القليلة ، من الناحية النظرية ، قضايا الاعتدال الأكبر المنتشرة في شبكات Meta الاجتماعية.

نظمت قرارات تعديل المحتوى التسعة التي ألغها مجلس الرقابة في عام 2022 سلسلة كاملة من حيث المواد. في إحدى الحالات ، انتقد مجلس الإدارة قرار Meta بإزالة منشورات من مستخدم Facebook يطلب النصيحة بشأنه كيف تتحدث مع طبيب عن اديرال. آخر أحدث حالة رأى مجلس الرقابة نقض قرار Meta بإزالة منشور على Facebook يقارن الجيش الروسي في أوكرانيا بالنازيين. تضمن المنشور المثير للجدل بشكل خاص قصيدة دعت إلى قتل الفاشيين بالإضافة إلى صورة جثة على ما يبدو. في هذه الحالات ، يُطلب من Meta احترام قرار مجلس الإدارة وتنفيذ تغييرات الاعتدال في غضون سبعة أيام من نشر الحكم.

بصرف النظر عن إلغاء قرارات الاعتدال ، يقضي مجلس الرقابة أيضًا الكثير من وقته في المشاركة في دور أقل بهرجة ولكن يحتمل أن يكون بنفس الأهمية لإصدار توصيات السياسة. يمكن لهذه التوصيات أن تغير الطريقة التي تفسر بها Meta وتنفذ إجراءات الإشراف على المحتوى لمليارات المستخدمين. في عام 2022 ، أصدر مجلس الرقابة 91 توصية تتعلق بالسياسات. دعا العديد من هؤلاء ، بطريقة أو بأخرى ، Meta إلى زيادة الشفافية عندما يتعلق الأمر بإعلام المستخدمين بسبب إزالة محتواهم. في كثير من الأحيان ، يلاحظ مجلس الرقابة في التقرير ، أن المستخدمين “يتركون في التخمين” عن سبب إزالة محتوى معين لديهم.

استجابة لتوصيات الشفافية هذه ، ورد أن Meta تبنت رسائل جديدة تخبر الأشخاص بالسياسات المحددة التي انتهكوها إذا كانت الانتهاكات تتضمن خطاب الكراهية أو المنظمات الخطرة أو التنمر أو المضايقة. ستخبر Meta المستخدمين أيضًا ما إذا كان قرار إزالة المحتوى الخاص بهم قد اتخذه نظام بشري أو نظام آلي. غيرت الشركة نظام الإضراب الخاص بها لمعالجة شكاوى المستخدمين تأمين حساباتهم بشكل غير عادل في سجن Facebook.

قامت Meta أيضًا بإجراء تغييرات على الطرق التي تتعامل بها مع الأزمات والنزاعات بسبب ضغط مجلس الرقابة. قامت الشركة بتطوير ملف بروتوكول سياسة الأزمات التي استخدمتها لقياس الخطر المحتمل للضرر المرتبط إعادة حساب الرئيس السابق دونالد ترامب. في حين أشاد بعض المدافعين عن الخطابات مثل اتحاد الحريات المدنية الأمريكي بقرار ميتا بإعادة ترامب ، قالت جماعات حقوقية أخرى مثل المشروع العالمي ضد الكراهية والتطرف والمسائل الإعلامية إنه سابق لأوانه. وبالمثل ، راجعت Meta أيضًا سياساتها حول الأفراد والمؤسسات الخطرة لتكون أكثر استنادًا إلى المخاطر. الآن ، يتم إعطاء الأولوية للمجموعات أو الأفراد الذين يعتبرون الأكثر خطورة لإجراءات الإنفاذ على المنصة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى