La modération des jeux vidéo pour améliorer l’expérience des joueurs et éviter la toxicité in-game

Les entreprises doivent se concentrer sur la mise en place d'une modération de jeu efficace afin d'améliorer l'expérience des joueurs et d'éviter la toxicité dans le jeu. Dans cet article, nous examinons les meilleures pratiques en matière de modération de jeu. 

Arnaud

Arnaud

Les espaces de discussion dans les jeux vidéo sont appréciés des joueurs. Ils s’entraident, commentent le jeu, nouent des liens entre eux.  Ils servent aussi in-game, dans les jeux coopératifs ou d’équipe (MOBA, par exemple). La possibilité de s’entendre représente un atout majeur pour se mettre d’accord sur une stratégie commune. Par exemple, pour se passer les informations en direct, prévenir d’un danger, faire des « call » pour concentrer les efforts collectifs sur un objectif. Pour cette raison, la modération de jeu représente un rôle crucial afin de garantir la sécurité et la bienveillance des échanges. Sans elle, la toxicité dans les jeux risque de se développer dans la communauté des joueurs et de gâcher leur expérience in-game. En théorie, les chats (écrits ou vocaux) sont censés être là pour aider les joueurs à communiquer. Dans les faits, certains sont tellement toxiques que beaucoup de joueurs et joueuses refusent d’y parler, ou coupent le chat sans chercher à comprendre.     

La toxicité dans les jeux vidéo en augmentation

Qu’est-ce que la toxicité dans les jeux ? Ce problème peut prendre diverses formes : harcèlement, sexisme, racisme, insultes… Si la toxicité n’est pas propre au milieu du gaming, elle s’y développe parfois avec une facilité déconcertante. Des propos anodins peuvent suffire à déclencher des vagues de harcèlement et des tensions dans les communautés de joueurs. Évaluer la toxicité dans les jeux se révèle complexe. L’étude « Fusion identitaire et extrémisme dans les cultures de jeux » explique ce phénomène dans l’industrie du jeu vidéo. Selon cette étude et les différentes observations menées, les problèmes de toxicité découleraient de plusieurs paramètres, parmi lesquels :

  • La solitude, l’isolement social ;

  • L’identification forte au personnage joué in-game, la frontière toujours plus mince entre virtuel et réel ;

  • L’aspect compétitif de certains jeux, notamment dans le e-sport et les modes multijoueurs en ligne ;

  • L’effet de groupe.

Ce problème de toxicité dans la culture gaming ne concerne pas tous les jeux ni tous les joueurs. La majorité des gamers n’adopte pas ces comportements toxiques, il est important de le souligner. Ils subissent les effets des propos tenus par une minorité d’entre eux : stress, harcèlement, mauvaise ambiance in-game…

Les modérateurs de jeux : rôle et limites

La modération de contenu dans les jeux occupe une place centrale pour éviter toute dérive dans les discussions. Les modérateurs sont chargés de s’assurer du bon déroulement des échanges. Ils repèrent et suppriment les contenus toxiques. Ils prennent des sanctions contre les joueurs concernés si nécessaire, par exemple en les empêchant de participer au chat. La modération du contenu des jeux, bien que cruciale, connaît cependant des limites.

Le contenu toxique détecté trop tard

Les débordements sont susceptibles de survenir à tout instant. Les joueurs se connectent jour et nuit à leurs jeux préférés. Dans ces conditions, s’en remettre uniquement à la modération humaine semble dérisoire. Plus encore dans des contextes de jeux compétitifs ou de tournois e-sport. Dans ces moments-là, les messages fusent dans les espaces de discussion, au point où il devient difficile, voire impossible, de tous les lire. Ces messages toxiques sont supprimés a posteriori par les modérateurs, mais les autres joueurs ont le temps de les voir passer. L’option de mettre en place une équipe de modérateurs/rices peut sembler intéressante, mais elle atteint vite ses limites. Comment faire en sorte qu’une équipe modère les commentaires de toutes les parties d’un jeu 24h/24 et 7j/7 ? Cela est impossible.     

La toxicité dans le chat difficile à identifier

La modération de jeux vidéo se révèle complexe, car les joueurs adoptent un langage propre à la communauté. Certains termes semblant agressifs relèvent de la camaraderie, du défi. D’autres termes a priori inoffensifs sont en réalité une manière d’insulter les autres. À cela, il faut ajouter les emojis, les mots volontairement mal orthographiés. Déterminer le niveau de toxicité dans les jeux est une tâche ardue pour les modérateurs. Ils risquent de laisser passer des messages offensants ou, à l’inverse, de bannir des joueurs par erreur.

Un enjeu de santé mentale

Les contenus toxiques n’impactent pas seulement les cibles directes des messages. Les autres joueurs sont exposés à ces propos, avec un risque réel pour leur santé mentale. C’est encore plus vrai pour les modérateurs chargés au quotidien de traiter ces propos haineux. La toxicité dans la communauté des joueurs peut générer du stress, du mal-être, des problèmes de santé mentale. Une solution de modération automatique protège la communauté, mais aussi l’équipe de modération.

La modération automatique des jeux — la solution Bodyguard.ai

Les services de modération de jeu ne suffisent pas à protéger les communautés de joueurs. Le recours à une solution automatique est indispensable. La technologie Bodyguard.ai repose sur l’humain et l’intelligence artificielle. Elle assure une modération fine, intelligente et en temps réel. Elle sait contextualiser les messages et elle saisit les subtilités linguistiques. Cela lui permet de comprendre les propos exacts et d’en déterminer la toxicité. La solution Bodyguard.ai soutient les équipes de modération dans leur travail en intervenant plus rapidement et plus efficacement. Elle protège la communauté et les modérateurs. Elle est aussi sensibilisée aux codes linguistiques du jeu vidéo en général : ce qui est toxique pour les médias ne l’est pas forcément dans le gaming. Toutes ces subtilités rendent la solution de modération autonome Bodyguard.ai unique en son genre.

La modération de jeu vidéo représente un enjeu essentiel pour garantir la meilleure expérience possible aux joueurs. Bodyguard.ai est la meilleure solution de modération sur le marché. Elle protège les communautés tout en préservant la liberté d’expression de chacun.

Les 3 points clés à retenir :

  • La toxicité dans les jeux vidéo prend la forme de harcèlement, d’insultes, de propos haineux.

  • Une minorité de joueurs adopte des comportements toxiques, mais cela suffit à impacter toute la communauté.

  • La solution Bodyguard.ai repose sur une technologie innovante basée sur l’intelligence artificielle et humaine.

FAQ

Qu’est-ce que la modération de jeux ?

La modération de jeux consiste à analyser les messages échangés entre joueurs. Les propos toxiques sont supprimés pour protéger la communauté.

Comment faire de la modération de jeux ?

Elle peut être réalisée par une équipe de modérateurs humains, soutenue par une solution de modération autonome. Combiner ces deux solutions assure la meilleure protection pour les joueurs.

Pourquoi la modération de jeux est-elle importante ?

Elle garantit la protection de chaque joueur, assure une expérience de jeu satisfaisante. Les joueurs se sentent respectés et protégés. Cela participe à améliorer l’image de la communauté et du jeu concern