تیراندازی های اول شخص مانند Call of Duty به دلیل سمی بودن لابی ها و چت های صوتی خود تا حدودی بدنام هستند. نظرسنجی ها پایگاه طرفداران این فرنچایز را منفی ترین در صنعت بازی می دانند. یک بار درگیری بین دو بازیکن منجر به فراخوانی یک تیم نیروی ویژه شد. اکتیویژن سالهاست که تلاش میکند با این رفتار مبارزه کند و بخشی از راه حل ممکن است مربوط به هوش مصنوعی باشد.
اکتیویژن با Modulate شریک شده است تا «مدیریت چت صوتی درون بازی» را به بازیهای خود بیاورد. یک سیستم تعدیل جدید با استفاده از فناوری هوش مصنوعی به نام ToxMod برای شناسایی رفتارهایی مانند تبعیض و آزار در زمان واقعی کار خواهد کرد.
آزمایش اولیه بتای ToxMod در آمریکای شمالی از امروز آغاز می شود. این بازی در بازی های Call of Duty: Modern Warfare II و Call of Duty: Warzone فعال است. «نسخه کامل جهانی» (آنطور که در بیانیه مطبوعاتی گفته شد شامل آسیا نمیشود) در 10 نوامبر با انتشار Call of Duty: Modern Warfare III، قسمت جدید این فرنچایز در سال جاری، برگزار میشود.
بیانیه مطبوعاتی Modulate به جزئیات زیادی در مورد نحوه عملکرد ToxMod نمی پردازد. بر سایت این شرکت خاطرنشان می کند که این ابزار "چت صوتی را تعدیل می کند تا رفتار بد را نشان دهد، تفاوت های ظریف هر مکالمه را برای شناسایی سمیت تجزیه و تحلیل می کند، و به گردانندگان اجازه می دهد تا با ارائه زمینه مرتبط و دقیق به هر حادثه به سرعت پاسخ دهند." در مصاحبه اخیر، مدیرعامل این شرکت گفت که هدف این ابزار فراتر از رونویسی ساده است. همچنین برای تمایز بین اظهارات بدخواهانه و طنز، عواملی مانند احساسات و حجم بازیکن را در نظر می گیرد.
شایان ذکر است که این ابزار (حداقل در حال حاضر) بر اساس داده های خود اقدامی علیه بازیکنان انجام نمی دهد، بلکه فقط گزارش هایی را برای مدیران اکتیویژن ارسال می کند. مشارکت انسان احتمالاً یک محافظ مهم باقی می ماند، زیرا تحقیقات نشان داده است که سیستم های تشخیص گفتار می توانند در نحوه پاسخگویی به کاربران با هویت ها و لهجه های نژادی متفاوت، تعصب نشان دهند.
همچنین بخوانید: