La toxicité des joueurs in-game

Les jeux vidéo online présentent des atouts indéniables pour les joueurs. Ils profitent d’une expérience gaming avec d’autres passionnés, dans un cadre compétitif ou collaboratif amical. Sans modération efficace, il suffit malheureusement de quelques éléments perturbateurs pour gâcher l’expérience in-game de toute une communauté.

Arnaud

Arnaud

Des comportements abusifs online aux conséquences bien réelles

La toxicité en ligne prend diverses formes : langage abusif, insultes, racisme, sexisme, moqueries sur les skills (compétences des autres joueurs). Il s’agit aussi parfois de harcèlement moral et sexuel. Lorsque ces comportements déplacés surviennent, les conséquences sont immédiates. Ces propos sont susceptibles de blesser les gamers concernés. Ceux-ci pourront décider de quitter le jeu pour se préserver des dégâts psychologiques occasionnés par ces attaques. 

Ce problème de toxicité peut entraîner un véritable effet boule de neige s’il n’est pas maîtrisé. D’autres joueurs, même sans être visés par des commentaires, choisiront de partir pour ne plus être exposés à ces comportements. Le jeu vidéo concerné se trouve entaché d’une mauvaise réputation. L’entreprise est pointée du doigt, avec un risque de dégât d’image de marque, de bad buzz. 

De la compétition musclée à la toxicité : la théorie de la vitre brisée

Les éditeurs de jeux vidéo prennent de plus en plus au sérieux la problématique des comportements toxiques en ligne. Évaluer le degré de toxicité, avéré ou non, d’un message se révèle pourtant complexe suivant le contexte. Contrairement à d’autres secteurs, il n’est pas surprenant de voir certains joueurs se taquiner afin de susciter diverses réactions. Parfois aussi, ces échanges toxiques se déroulent sur des groupes/ discussions privés.

Mojang, l’éditeur du jeu Minecraft, a tenté de résoudre cette problématique en s’attaquant à la modération des serveurs privés. Désormais, les messages toxiques peuvent y être signalés, avec un risque d’exclusion à la clé pour les gamers. Cette nouvelle a été très mal accueillie par la communauté. Les joueurs y ont vu une atteinte à leur liberté, une mesure abusive. Ironiquement, les développeurs ont été harcelés et insultés en ligne durant plusieurs semaines suite à cette annonce.

Le milieu du gaming étant compétitif, il n’est pas rare de voir apparaître des provocations entre joueurs ou équipes e-sport. Celles-ci peuvent être lancées pour s’amuser, comparer les performances, faire monter la pression et susciter l’intérêt des supporters, sans volonté de blesser. Toute la difficulté consiste à s’assurer qu’elles restent bon enfant.

Lors d’un tournoi d’Apex Legends, une équipe entière a été bannie lorsqu’un joueur s’est amusé aux dépens d’un coéquipier. Cette affaire a aussitôt provoqué un buzz sur les réseaux sociaux. Il s’agissait en réalité, selon l’équipe bannie, d’une simple plaisanterie entre eux, en toute camaraderie.

La modération a-t-elle eu tort de bannir toute une équipe ? "The Broken Window theory" (la théorie de la vitre brisée en français), issue de la criminologie, apporte un éclairage intéressant sur la question. En faisant une analogie avec le jeu vidéo, le raisonnement est le suivant :

  • Un joueur émet des propos déplacés, sans aucune conséquence pour lui, comme quelqu’un lançant une insulte sur un réseau social. Les personnes oublient dès qu’elles envoient ce message ;

  • À ce stade-là, les joueurs (pas encore habitués) signalent ces comportements aux équipes compétentes (via un report) ;

  • Aucune mesure n’est prise, la situation s’installe et se répète;

  • Après s’être comportés comme des joueurs aux comportements dits normaux (avoir tenté de réduire la haine en ligne à leur échelle), ces derniers constatent qu’être toxique ou non ne change rien. La toxicité dans la communauté finit par être considérée comme normale, acceptable ;

  • La boucle est bouclée : certains joueurs lanceront quelques insultes insignifiantes de temps en temps, d’autres iront plus loin dans la toxicité. Il n’y a plus de limites.

Cette théorie montre comment un simple commentaire, même dans le cadre de la camaraderie, peut entraîner des conséquences à long terme. Chaque propos problématique non pris en considération ouvre la porte à d’autres, de plus en plus offensants.

La modération automatique in-game

Grâce à notre custom API, la solution de modération intelligente Bodyguard.ai peut être implémentée directement dans les jeux. Les propos sont modérés en temps réel in-game. Les commentaires contraires aux règles de modération préalablement établies par les développeurs (misogynie, insultes sur le genre, l’orientation d’une personne…) sont modérés. L’ambiance au sein de la communauté est préservée.

Les jeux vidéo sont, avant tout, une plateforme d’échanges réunissant des personnes autour d’une passion commune. Ils ont été un excellent moyen de garder un lien social pendant la crise sanitaire. Lorsque les échanges sont préservés de la toxicité, le gaming représente une expérience positive :

  • 43 % des gamers jouent en ligne avec d’autres personnes ;

  • 33 % affirment s’être fait des amis par le biais du jeu ; 

  • 30 % ont le sentiment de faire partie d’une communauté. Celle-ci est jugée bienveillante et accueillante pour 89 % d’entre eux.

Les échanges occupent une place essentielle dans l’expérience des joueurs, ils sont même indispensables dans certains genres. Les éditeurs doivent protéger leur communauté des comportements toxiques et du harcèlement. Avec une solution de modération automatique, les discussions restent saines et les joueurs sont protégés.

Les 3 points clés à retenir :

  • Le milieu du gaming est particulièrement concerné par la toxicité en ligne

  • Le manque de modération entraîne un effet boule de neige aux conséquences désastreuses sur la communauté et l’éditeur

  • Une solution de modération automatique aide à maintenir une ambiance saine au sein des communautés in game