Toxické hráče ve svých hrách nechceme, hlásí opět důrazněji Activision Blizzard.
Activision Blizzard oznámil, že do Call of Duty: Modern Warfare 3 přidá nový systém moderace hlasové komunikace. Být sem tam trochu toxický na své kamarády, kteří to snesou je k nezaplacení, ale být toxický na cizí hráče, u kterých nevíte, jaký to bude mít efekt... to už tolik ne. Ve spojení s týmem společnosti Modulate se podařilo vyvinout nový systém, který bude automaticky detekovat nenávistné projevy a další způsoby toxického chování.
Beta verze nového automatického moderátora je už spuštěná v Americe pro Call of Duty: Modern Warfare 2 a Warzone. Celosvětové uvedení systému do provozu potom můžeme očekávat při uvedení Modern Warfare 3 v listopadu. "Ve hrách není prostor pro obtěžování a ubližování. Bojovat s tímto typem chování v hlasových kanálech je pro nás velká výzva. Nyní díky spolupráci s Modulate přinášíme jejich state-of-the-art technologii strojového učení, která může vymáhat naše pravidla v reálném čase," vysvětluje novinku CTO společnosti Activision Michael Vance.
Activision bojuje s toxickým chováním hráčů dlouhodobě a například loni v září zabanoval kolem půl milionu účtů. Následně společnost oznámila, že pracuje na AI systému, který by pomohl řešit problémy s tímto jednáním. O necelý rok později tak budeme moci okusit, jak dopadl výsledek tohoto snažení.