أداوت وتكنولوجيا

يشير تقرير ستانفورد إلى أن الماستودون لديه مشكلة مادية في إساءة معاملة الأطفال


جديد تقرير يشير إلى أن سياسات الاعتدال المتراخية للمحتوى الخاصة بـ Mastodon وغيرها من منصات الوسائط الاجتماعية اللامركزية قد أدت إلى انتشار مواد الاعتداء الجنسي على الأطفال. نشر مرصد الإنترنت في ستانفورد بحث جديد يُظهر يوم الاثنين أن المواقع اللامركزية بها أوجه قصور خطيرة عندما يتعلق الأمر بـ “البنية التحتية لسلامة الأطفال”. لسوء الحظ ، هذا لا يجعلها مختلفة تمامًا عن غالبية المنصات على الإنترنت العادي.

عندما نتحدث عن الويب “اللامركزي” ، فإننا نتحدث بالطبع عن وسائل التواصل الاجتماعي “الفيدرالية” أو “الاتحاد”- مجموعة فضفاضة من الأنظمة الأساسية التي تتجنب الملكية المركزية والحوكمة لنموذج تفاعلي يعطي الأولوية لاستقلالية المستخدم وخصوصيته. يعمل Fediverse على سلسلة من بروتوكولات الويب المجانية ومفتوحة المصدر التي تسمح لأي شخص بإعداد واستضافة مجتمعات اجتماعية عبر خوادمهم الخاصة ، أو “مثيلاتهم” ، كما هو معروف. من بين مجموعة المنصات المحدودة التي تشكل هذا العالم اللامركزي ، تعد Mastodon واحدة من أكثر المنصات شيوعًا والمستخدمة على نطاق واسع على الويب. ومع ذلك ، فبجانب الإنترنت المركزي ، تعتبر المنطقة اللامركزية منطقة أقل استخدامًا بشكل ملحوظ ؛ في أوجها ، المستودون تفاخر بحوالي 2.5 مليون مستخدم. يمكنك مقارنة ذلك بأرقام المستخدمين النشطة اليومية الأخيرة على Twitter ، والتي تحوم في مكان ما حول 250 مليون.

على الرغم من الوعد المثير لـ Fediverse ، هناك مشاكل واضحة في نموذجها. التهديدات الأمنية ، لسبب واحد ، هي قضية. ال سهولة الاستخدام المحدودة النظام البيئي كان أيضًا مصدرًا للخلاف. وكما تشير دراسة ستانفورد الجديدة ، فإن الافتقار إلى الرقابة المركزية يعني عدم وجود حواجز حماية كافية مدمجة في النظام البيئي للدفاع ضد انتشار المحتوى غير القانوني وغير الأخلاقي. في الواقع ، يقول الباحثون إنهم واجهوا ما يقرب من 600 قطعة من محتوى CSAM معروف أو مشتبه به على مدار يومين في حالات Mastodon العليا. بشكل مرعب ، تم اكتشاف أول قطعة من CSAM واجهها الباحثون خلال الدقائق الخمس الأولى من البحث. بشكل عام ، يقول الباحثون إن المحتوى سهل الوصول إليه ويمكن البحث عنه على المواقع بسهولة.

يشرح التقرير أيضًا سبب سهولة الوصول إلى المحتوى …

… يميل الفاعلون السيئون إلى الذهاب إلى المنصة مع سياسات الإشراف والتنفيذ الأكثر تساهلاً. هذا يعني أن الشبكات اللامركزية ، التي تمتلك فيها بعض الحالات موارد محدودة أو تختار عدم التصرف ، قد تواجه صعوبة في اكتشاف أو تخفيف مواد الاعتداء الجنسي على الأطفال (CSAM). ينتج عن الاتحاد حاليًا حالات التكرار وعدم الكفاءة التي تجعل من الصعب إيقاف CSAM والصور الحميمة غير المتوافقة (NCII) وغيرها من المحتوى والسلوك الضار وغير القانوني.

تواصلت Gizmodo مع Mastodon للتعليق على البحث الجديد لكنها لم تتلق ردًا. سنقوم بتحديث هذه القصة إذا استجابت المنصة.

تحتوي شبكة الويب “المركزية” أيضًا على مشكلة كبيرة في CSAM

على الرغم من النتائج التي توصل إليها تقرير ستانفورد ، فإنه يجب الأخذ في الاعتبار أنه لمجرد أن الموقع “مركزي” أو خاضع للرقابة ، فهذا لا يعني أنه يحتوي على محتوى غير قانوني أقل. وبالفعل ، فقد أظهرت التحقيقات الأخيرة أن معظم منصات التواصل الاجتماعي الرئيسية يسبحون بمواد مسيئة للأطفال. حتى إذا كان الموقع يحتوي على نظام متقدم للإشراف على المحتوى ، فإن هذا لا يعني أن النظام جيد بشكل خاص في تحديد المحتوى الحقير والتخلص منه.

مثال على ذلك: في فبراير ، تقرير من New York Times أظهر أن Twitter قد أزال 400000 حساب مستخدم مذهل لقيامه “بإنشاء أو توزيع أو التعامل مع CSAM”. على الرغم من الإزالة الاستباقية للحسابات من تطبيق الطيور ، أشار التقرير إلى أن فريق أمان Twitter يبدو أنه “فشل” في مهمته لتخليص النظام الأساسي من كميات محيرة للعقل من مواد إساءة الاستخدام.

وبالمثل ، صدرت مؤخرا وول ستريت جورنال تحقيق أظهر أنه لا يوجد فقط كمية مذهلة من مواد إساءة معاملة الأطفال تطفو حولها Instagram ، لكن خوارزميات النظام الأساسي كانت كذلك “روج” بنشاط لمثل هذا المحتوى لمحبّي الأطفال. في الواقع ، وفقًا لمقال المجلة ، كان Instagram مسؤولاً عن توجيه مشتهي الأطفال “إلى [CSAM] بائعي المحتوى عبر أنظمة التوصية التي تتفوق في ربط أولئك الذين يشاركون الاهتمامات الخاصة “. بعد نشر تقرير المجلة ، قالت شركة Meta الأم لإنستغرام إنها أنشأت فريقًا داخليًا للتعامل.

الحاجة إلى “أدوات جديدة لبيئة جديدة”

بينما تكافح كل من الشبكات المركزية واللامركزية بشكل واضح مع انتشار CSAM ، يقول الباحث الرئيسي في تقرير ستانفورد الجديد ، ديفيد ثيل ، إن Fediverse معرض بشكل خاص لهذه المشكلة. بالتأكيد ، قد لا تكون المنصات “المركزية” جيدة بشكل خاص في تحديد المحتوى غير القانوني ، ولكن إذا اضطروا إلى إزالته ، فلديهم الأدوات اللازمة للقيام بذلك. في الوقت نفسه ، تفتقر المنصات مثل Mastodon إلى البنية التحتية الموزعة للتعامل مع CSAM على نطاق واسع ، كما يقول Thiel.

قال ثيل لـ Gizmodo في رسالة بريد إلكتروني: “لا تكاد توجد أي أدوات Fediverse مدمجة للمساعدة في إدارة المشكلة ، في حين أن المنصات الكبيرة يمكنها رفض CSAM المعروفة بطريقة آلية بسهولة شديدة”. “تتمتع المنصات المركزية بالسلطة المطلقة للمحتوى ولديها القدرة على إيقافه قدر الإمكان ، ولكن في Fediverse تقوم فقط بقطع الخوادم مع الجهات الفاعلة السيئة والمضي قدمًا ، مما يعني أن المحتوى لا يزال موزعًا ولا يزال يؤذي الضحايا.”

“المشكلة ، في رأيي ، ليست أن اللامركزية أسوأ إلى حد ما ، إنها أن كل أداة تقنية متاحة لمحاربة CSAM تم تصميمها مع وضع عدد صغير من المنصات المركزية في الاعتبار. نحن بحاجة إلى أدوات جديدة لبيئة جديدة ، والتي ستتطلب موارد هندسية وتمويلًا “.

فيما يتعلق بأي نظام بيئي لوسائل التواصل الاجتماعي يعاني من مشكلة CSAM “أكبر” – المركزية أو اللامركزية – قال تيل إنه لا يستطيع أن يقول. قال “لا أعتقد أنه يمكننا تحديد” أكبر “بدون عينات تمثيلية وتعديل قاعدة المستخدمين”.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى