شاركت منصة فيس بوك اليوم تحديثا حول جهودها لتكون أكثر شفافية فيما يتعلق بكيفية مكافحة الكراهية والمنظمات الخطرة على تطبيقاتها المختلفة، حيث أوضحت الشركة بعض جهودها بما في ذلك مقاييس التنفيذ الجديدة وتفاصيل التكتيكات التي طورتها لتعطيل هذا السلوك.
إزالة الكراهية المنظمة والمنظمات الخطرة
وقال فيس بوك عبر مدونته الرسمية: “نحن نحظر المجموعات التي تعلن عن مهمة كريهة وعنيفة من التواجد على تطبيقاتنا ونزيل المحتوى الذي يمثلها أو يمدحها أو يدعمها، وحتى الآن، حددنا هذه المجموعات في جميع أنحاء العالم كمنظمات كراهية لأنها تنخرط في عنف منسق ضد الآخرين على أساس خصائص مثل الدين أو العرق أو العرق أو الأصل القومي ونقيم بشكل روتيني الجماعات والأفراد لتحديد ما إذا كانوا ينتهكون سياستنا".
وأضافت الشركة: “منذ ثلاث سنوات، بدأنا في تطوير أدوات وسلسلة من التقنيات الآلية لاكتشاف المحتوى المرتبط بالمنظمات الإرهابية مثل داعش والقاعدة والشركات التابعة لها، كما وسعنا منذ ذلك الحين هذه التقنيات لاكتشاف وإزالة المحتوى المرتبط بالجماعات الإرهابية الأخرى والكراهية المنظمة".
واستكملت:" يمكننا الآن اكتشاف النص المضمن في الصور ومقاطع الفيديو من أجل فهم سياقها الكامل، وقمنا ببناء تقنية مطابقة الوسائط للعثور على محتوى مطابق أو شبه مطابق للصور ومقاطع الفيديو والنص وحتى الصوت الذي لقد تم إزالة لقد بالفعل، وعندما بدأنا في الكشف عن منظمات الكراهية، ركزنا على المجموعات التي شكلت أكبر خطر للعنف في ذلك الوقت، وتوسعنا الآن لاكتشاف المزيد من المجموعات المرتبطة بأيديولوجيات متطرفة قائمة على الكراهية والمتطرفة واستخدام لغات مختلفة".
وبالإضافة إلى إنشاء أدوات جديدة، قام فيس بوك بتكييف الاستراتيجيات من عمله في مكافحة الإرهاب، مثل الاستفادة من الإشارات خارج النظام الأساسي لتحديد المحتوى الخطير على فيس بوك، وتنفيذ الإجراءات لتدقيق دقة قرارات الذكاء الاصطناعي لدينا بمرور الوقت.
إزالة محتوي الكراهية
في الأشهر الثلاثة الأولى من عام 2020، أزالت الشركة حوالي 4.7 مليون قطعة من المحتوى على فيس بوك مرتبطة بالكراهية المنظمة، بزيادة تزيد عن 3 ملايين قطعة من المحتوى من الربع السابق، وبالإضافة إلى ذلك، قمنا بزيادة معدل الاكتشاف الاستباقي للكراهية المنظمة، ونسبة المحتوى التي نزيلها والتي نكتشفها قبل أن يبلغنا عنها شخص ما، من 89.6٪ في الربع الرابع 2019 إلى 96.7٪ في الربع الأول 2020.
وأضافت الشركة لقد رأينا تقدمًا مشابهًا على انستجرام حيث لدينا الاستباقي ارتفع معدل الاكتشاف من 57.6٪ إلى 68.9٪، وقمنا بإزالة 175.000 جزء من المحتوى في الربع الأول من عام 2020، ارتفاعًا من 139800 في الربع السابق، وبالإضافة إلى ذلك، نظرًا لأننا أنشأنا هذا النظام للكشف عن محتوى الكراهية المنظم بناءً على ما تعلمناه من الكشف عن المحتوى الإرهابي، فقد تمكنا من تحديد مكان تميز المحتوى المرتبط بإحدى المشكلات عن الأخرى.
على سبيل المثال، رأينا أن انتهاكات الكراهية المنظمة من المرجح أن تنطوي على ميمات، في حين أن الدعاية الإرهابية غالبًا ما يتم تفريقها من الذراع الإعلامية المركزية للمنظمة وتشمل العلامات التجارية الرسمية، ويساعدنا تحديد هذه الأنماط في الاستمرار في ضبط أنظمة الكشف عن الكراهية المنظمة والمحتوى الإرهابي".
تطوير تكتيكات التنفيذ
قال فيس بوك:"نبقى متيقظين في التعلم ومكافحة الطرق الجديدة التي قد يحاول الناس إساءة استخدام تطبيقاتنا، نحن نعمل مع شركاء خارجيين للحصول على أحدث المعلومات حول السلوك العدائي عبر الإنترنت، ونكلف بإجراء بحث مستقل من الأكاديميين والخبراء، ونتعلم أيضًا من فرق مختلفة على فيس بوك حول الأساليب الناجحة في مكافحة الأشكال الأخرى من سوء المعاملة التي يمكن تطبيقها على هذا العمل".
وأوضح فيس بوك:"خلال الأشهر الستة الماضية، عملنا مع زملائنا في فريق Threat Intelligence للاستفادة من استراتيجيتهم في مكافحة السلوك غير الصحيح المنسق من أجل تطوير تكتيك جديد يستهدف وجود مجموعة محظورة عبر تطبيقاتنا. نقوم بذلك من خلال تحديد الإشارات التي تشير إلى وجود منظمة محظورة، ثم التحقيق بشكل استباقي في الحسابات والصفحات والمجموعات المرتبطة قبل إزالتها جميعًا مرة واحدة، وبمجرد إزالة وجودهم، نعمل على تحديد محاولات المجموعة للعودة إلى منصتنا، ونحن ندرس أيضًا كيف تجاوزت المؤسسات الخطرة اكتشافنا في البداية، وكذلك كيفية محاولتهم العودة إلى فيس بوك بعد إزالة حساباتهم، من أجل تعزيز فرضنا وإنشاء عوائق جديدة لإبعادهم عن تطبيقاتنا.
تم أضافة تعليقك سوف يظهر بعد المراجعة