فيسبوك يستخدم الذكاء الاصطناعي لحجب المضمون المضلل
كشف موقع فيسبوك، الأربعاء، أدوات جديدة لمكافحة نشر المعلومات الخاطئة داخل المجموعات، منها القدرة على استخدام الذكاء الاصطناعي لحجب المضمون الذي يحتوي على وقائع كاذبة.
وسيتمكن مديرو المجموعات من السماح لبرمجية بأن ترفض تلقائيًا الرسائل التي تعرض معلومات تبين أنها خاطئة بواسطة المدققين في صحة المعلومات من جهات خارجية، وفقًا لماريا سميث نائبة رئيسة القسم المخصص للمجموعات لدى فيسبوك.
وتدفع ميتا، الشركة الأم لموقع فيسبوك، لأكثر من 80 وسيلة إعلام في جميع أنحاء العالم في إطار برنامج التحقق من المحتوى.
وقالت سميث في بيان: ”نعلن عن ميزات جديدة لمساعدة المسؤولين عن مجموعات فيسبوك في الحفاظ على سلامة هذه المجموعات، والحد من المعلومات المضللة، وتسهيل إدارة مجموعاتهم ونموها مع الجمهور المناسب“.
وفقًا لميتا، يتردد أكثر من 1،8 مليار شخص على مجموعات فيسبوك كل شهر، وينضم أكثر من نصف مستخدمي موقع التواصل الاجتماعي إلى خمس مجموعات أو أكثر.
وكثيرًا ما أشاد مارك زوكربيرغ، رئيس فيسبوك، بالمجموعات كطريقة للجمع بين أشخاص لديهم اهتمامات مشتركة.
وأضافت سميث: ”ستساعد هذه الأدوات الجديدة المشرفين على منع انتشار المعلومات الخاطئة وإدارة التفاعلات ضمن مجموعتهم، لا يمكن للمجموعات أن تزدهر كأماكن تواصل إلا عندما تكون آمنة“.
في ذات الإطار، زعمت شكاوى قدمها اثنان من المبلغين عن المخالفات إلى هيئة الأوراق المالية والبورصات الأمريكية، هذا الشهر، أن شركة ”ميتا“ ضللت المستثمرين بشأن جهودها لمكافحة تغير المناخ، والمعلومات الخاطئة عن فيروس كورونا المستجد (كوفيد -19) عبر منصاتها المختلفة.
ووفقًا لصحيفة ”واشنطن بوست“ الأمريكية، تزعم الشكاوى المقدمة من مجموعة ”Whistleblower Aid“، وهي منظمة غير ربحية تمثل المسؤولة السابقة في الشركة فرانسيس هيوغن، أن الشركة قدمت ”تحريفات مادية وإغفالات في بيانات للمستثمرين“ حول جهودها لمكافحة المعلومات المضللة.
وأوضحت الصحيفة الأمريكية أن الشكاوى، التي لم يتم الإبلاغ عنها من قبل، تستند إلى شهادة هيوغن أمام الكونغرس الأمريكي، والملفات التي قدمها محاموها إلى المنظم المالي، العام الماضي، وهي ملفات مستمدة من آلاف المستندات الداخلية التي حصلت عليها المسؤولة السابقة قبل مغادرتها الشركة في مايو الماضي.