فيسبوك تطور تقنية تبلغ تلقائيا بالمواد غير اللائقة

مدار الساعة ـ نشر في 2016/12/04 الساعة 14:44

الساعة - قال المدير في شركة فيسبوك خواكين كانديلا إن الشركة تعمل على تقنية تبلغ تلقائيا عن المواد غير اللائقة في البث المباشر بالفيديو، لتستمر في جهود متنامية لاستغلال الذكاء الاصطناعي في مراقبة المحتوى.

ودخلت شركة موقع التواصل الاجتماعي طرفا في عدد من القضايا الجدلية بشأن المحتوى هذا العام، من مواجهة انتقادات دولية بعد حذفها صورة ترمز إلى حرب فيتنام بسبب العري، إلى السماح بنشر أخبار زائفة على الموقع.

واعتمدت فيسبوك عادة في الغالب على المستخدمين في الإبلاغ عن المنشورات غير اللائقة التي يفحصها بعد ذلك موظفون بالشركة لمطابقتها "بالمعايير المجتمعية".

ويتخذ المسؤولون التنفيذيون الكبار في الشركة القرارات بشأن القضايا الشائكة التي قد تتطلب تغييرات في السياسة.

وأبلغ كانديلا الصحفيين أن فيسبوك تتوسع في الاستعانة بالذكاء الاصطناعي لرصد المحتوى غير اللائق. وقال "إنها مجموعة من القواعد التي ترصد العري أو العنف وسائر ما لا يتفق مع سياساتنا".

وتعمل الشركة بالفعل على استخدام النظم الآلية للإبلاغ عن محتوى الفيديو المتطرف، وهو ما نشرته رويترز في يونيو/حزيران. والآن يجري أيضا اختبار النظام الآلي على خدمة فيسبوك لايف، وهي خدمة للبث المباشر للفيديو.

وقال كانديلا إن استخدام الذكاء الاصطناعي للإبلاغ عن محتوى الفيديو المباشر غير اللائق لا يزال في مرحلة الأبحاث.

وقالت الشركة إنها تستخدم أيضا النظام الآلي لمعالجة عشرات الملايين من البلاغات التي تفحصها أسبوعيا، ولمعرفة البلاغات المتكررة، وتوجيه المحتوى المبلغ عنه إلى المراجعين أصحاب الخبرات المناسبة في الموضوع ذي الصلة.

وكان الرئيس التنفيذي للشركة مارك زوكربرغ قال في نوفمبر/تشرين الثاني إن فيسبوك قد تلجأ إلى النظام الآلي في إطار خطة لرصد الأخبار الزائفة.

غير أن الشركة قالت إن تحديد ما إذا كان تعليق ما ينطوي -على سبيل المثال- على كراهية أو ترويع يتطلب سياقا خاصا.

ورفض مدير الأبحاث لدى فيسبوك، جان لايكون، التعليق بشأن استخدام الذكاء الاصطناعي لرصد الأخبار الزائفة، لكنه قال إن تحسين تدفقات الأخبار عموما أثار تساؤلات بشأن المفاضلة بين الرقابة وحرية التعبير والآداب العامة والمصداقية.

وقال "تلك أمور تذهب لما هو أبعد مما إذا كان بوسعنا تطوير الذكاء الاصطناعي، إنها مفاضلات لست في موقع يسمح لي بحسمها".
المصدر:رويتر

مدار الساعة ـ نشر في 2016/12/04 الساعة 14:44