fbpx
الأخبار

تعمل Ubisoft و Riot Games معًا لمكافحة الدردشات السلبية

يتعاون عملاقا الألعاب في مشروع بحث بهدف استخدام الذكاء الاصطناعي للكشف عن السلوكيات التخريبية.

سيتم تقسيم المشروع الجديد ، المسمى “Zero Harm in Comms” ، إلى مرحلتين رئيسيتين. في المرحلة الأولى ، ستحاول Ubisoft و Riot إنشاء إطار عمل يتيح لهما مشاركة البيانات وجمعها ووضع علامات عليها بطريقة تحمي الخصوصية. إنها خطوة أولى مهمة للتأكد من أن الشركات لا تحتفظ بالبيانات التي تحتوي على معلومات تعريف شخصية ، وإذا وجدت Ubisoft و Riot أنهما لا تستطيعان القيام بذلك ، “توقف المشروع” ، هكذا قال إيف جاكير ، المدير التنفيذي في Ubisoft La Forge ، في مقابلة مع The Verge.

بمجرد إنشاء إطار حماية الخصوصية هذا ، تخطط Ubisoft و Riot لبناء أدوات تستخدم الذكاء الاصطناعي المدربة من قبل مجموعات البيانات لمحاولة اكتشاف “السلوكيات التخريبية” والتخفيف من حدتها ، وفقًا لبيان صحفي.

تقليديًا ، يعتمد اكتشاف النية الضارة على “التقنيات القائمة على القاموس” ، حيث يكون لديك قائمة من الكلمات مكتوبة بطرق مختلفة يمكن استخدامها لتحديد ما إذا كانت الرسالة قد تكون سيئة ، وفقًا لجاكيه. وقال إنه من خلال هذه الشراكة ، تحاول Ubisoft و Riot استخدام معالجة اللغة الطبيعية لاستخراج المعنى العام للجملة مع مراعاة سياق المناقشة.

الهدف ، إذا كان كل شيء يعمل بشكل جيد ، هو أن يرى اللاعبون عددًا أقل من الرسائل السامة في الدردشات. تدير كلتا الشركتين ألعابًا ضخمة متعددة اللاعبين ، لذا من المحتمل أن تكسب الكثير من تقليل الرسائل الضارة في الدردشة – إذا شعر الناس بالأمان أثناء ممارسة ألعابهم ، فمن المحتمل أن يلعبوا المزيد منها. وتقوم شركة Riot بالفعل بمراقبة الاتصالات الصوتية كجزء من جهودها لمكافحة السلوكيات التخريبية.

لكن جاكير شددت على أن هذا العمل هو بحث ، و “ليس مثل المشروع الذي سيتم تسليمه في مرحلة ما … إنه بطريقة أكثر تعقيدًا من ذلك”. وكما رأينا من قبل ، لم يثبت الذكاء الاصطناعي حتى الآن أنه الحل السحري للإشراف على المحتوى.

ستشارك Ubisoft و Riot في “ما تعلماه من المرحلة الأولية من التجربة” في وقت ما من العام المقبل ، “بغض النظر عن النتيجة” ، وفقًا للبيان الصحفي.

يونس لصفر

رجل متزوج. متخصص في مجال الرياضات الإلكترونية على مستوى منطقة شمال أفريقيا و الشرق الأوسط.

Related Articles

اترك تعليقاً

Back to top button