Les systèmes de modération réduisent la toxicité de Call of Duty de 50 %

Dans un tout nouveau billet de blog, Activision Blizzard et ses studios associés ont longuement parlé du code de conduite de Call of Duty, attirant particulièrement l’attention sur les résultats générés par le récent déploiement de nouveaux mécanismes de modération. Plus important encore, l’équipe a discuté des résultats tirés du déploiement d’un système automatisé de surveillance du chat qui réprimanderait et punirait les joueurs qui s’exprimaient de manière agressive ou offensante dans le jeu.

C’est beaucoup de punition

Dans l’article du blog publié sur callofduty.com, il a été affirmé que plus de deux millions de comptes ont « vu l’application dans le jeu pour un chat vocal perturbateur ». C’est un parcelle des joueurs étant offensants et abusifs dans Call of Duty, mais certains diront que cela fait partie de l’écosystème. Qu’est-ce que Call of Duty sans un petit discours trash – ce genre de rhétorique.

Activision a également souligné qu’une réduction d’environ 50 % du nombre de « joueurs exposés à de graves cas de chat vocal perturbateur » a été enregistrée depuis le lancement de Modern Warfare III.

Avec la promesse de lutter autant que possible contre la toxicité dans le monde de Call of Duty, Activision a expliqué que davantage de systèmes de modération seraient à venir dans les futures mises à jour – et davantage de sanctions. Il y avait une référence rappelant aux joueurs de signaler toute activité malveillante dans n’importe quel jeu Call of Duty, mais c’est une ligne difficile à suivre grâce aux mises à jour récentes. Par exemple, il existe une nouvelle règle qui stipule que vous serez puni pour toute fausse déclaration – mais aucun seuil n’a été clarifié.

Ainsi, vous pourriez signaler la toxicité d’une équipe entière et le système automatisé pourrait lire cela comme un « rapport de spam ». Qui sait vraiment ?