Comment faire face à la toxicité dans le gaming ?

L'industrie du jeu vidéo ne s'est jamais aussi bien portée. Plus de 200 millions de personnes jouent régulièrement à des jeux sur console, ordinateur ou mobile. Cette popularité, malheureusement, ne va pas sans son lot d'interactions négatives entre gamers. Insultes, menaces, harcèlement... Jusqu'où peut aller la toxicité en ligne, et comment l'affronter ?

Arnaud

Arnaud

Comportements toxiques en ligne : un phénomène endémique

Quel joueur n'a pas déjà été confronté à l'agressivité exagérée d'un adversaire ? En dépit de tous les efforts de la modération en ligne, le contenu toxique reste une réalité sur la plupart des serveurs de jeux et naturellement sur les réseaux sociaux. D'après un rapport accablant de la ligue anti-diffamation américaine (ADL), pas moins de 60 % des adolescents américains ont déjà été victimes de ce type de comportement.

Cette négativité extrême est souvent observée dans les jeux multijoueurs en ligne. Elle y est favorisée par l'anonymat des gamers, un esprit compétitif poussé à l'extrême et un manque de moyens et de solutions pour lutter contre.

Comment définir un comportement toxique ?

La toxicité décrit toute attitude directement ou indirectement préjudiciable à d'autres personnes. Le comportement des joueurs toxiques peut prendre différentes formes, comme les injures et menaces, les violences verbales, les propos vulgaires, mais aussi les discours haineux, les appels à la haine, l’incitation à la haine raciale ou au suicide, le harcèlement moral ou sexuel, les moqueries sur le physique, ou encore la LGBTQ+ phobie ou la misogynie.

Pourquoi lutter contre le harcèlement en ligne ?

Au-delà de ternir l'expérience de jeu, la toxicité a un réel impact psychologique sur ses victimes. Elle peut conduire certaines d'entre elles à abandonner purement et simplement leur jeu préféré.

Le fléau du harcèlement en ligne semble gagner chaque jour du terrain. En novembre 2021, la 6ème édition du Z Event sur Twitch se soldait tristement par un acharnement subi par la streameuse Ultia. Son seul tort était d'avoir dénoncé un comportement sexiste. À peine un mois plus tôt, Riot se résignait à fermer définitivement le tchat /all de League of Legends en raison de sa toxicité excessive.

La moitié des joueurs sont en réalité des joueuses. Les femmes sont souvent la cible de comportements toxiques, notamment d'insultes et de harcèlement en ligne. Veiller à ne pas exposer sa communauté à des contenus toxiques, créer une expérience de jeu positive et avoir la communauté la plus inclusive possible est devenu le challenge numéro 1 pour l’industrie du jeu vidéo

La haine en ligne et les commentaires insultants ne sont jamais sans effet sur leurs victimes, même s'agissant de streamers expérimentés ou de joueurs pro. Le mental d'une équipe eSport peut être affecté de façon considérable en cas de harcèlement continu et agressif de la part de certains éléments au sein de leur communauté. La lutte efficace contre ce phénomène représente donc aussi un impératif de performance : il est essentiel de préserver les gamers professionnels de ces atteintes pour ne pas altérer leur qualité de jeu et leur sérénité.

Modération en ligne : un équilibre difficile à trouver

Les outils utilisés actuellement sur la majorité des plateformes apparaissent dépassés par l'ampleur du phénomène. La modération automatique de Twitch, en particulier, peine à gérer les raids et les bots spammeurs, mais aussi à distinguer le comportement toxique du débat constructif.

Comment éviter la toxicité dans le gaming ?

Le nouvel outil de modération contextuelle et intelligente de Bodyguard est conçu pour protéger à la fois les gamers, les éditeurs et les plateformes.

Intégrable sur les réseaux sociaux et plateformes de jeux de toutes tailles, Bodyguard analyse les commentaires en temps réel et leur contexte. Il est capable de masquer ou supprimer le spam (publicités, liens...), mais aussi les contenus haineux : insultes, racisme, menaces, homophobie, harcèlement, misogynie... Sa technologie basée sur l’IA sait notamment décrypter les abréviations, les injures volontairement mal orthographiées ou encore les émojis. Cela lui permet de déjouer les tentatives de contournement des utilisateurs toxiques.

La solution va même au-delà de la simple modération en détectant aussi les contenus positifs. Bodyguard sait identifier les membres de la communauté réagissant de façon constructive aux contenus et se montrant les plus actifs. Une aide précieuse pour faire émerger et recruter de potentiels ambassadeurs !

La technologie Bodyguard est avant tout au service des responsables de plateformes, community managers et community developers, avec :

  • Un espace dédié pour consulter une analyse détaillée de votre communauté ;

  • Des statistiques pour évaluer l'impact de vos messages et le nombre de réponses générées, dont le contenu haineux ;

  • Des paramètres de modération largement personnalisables ;

  • Des outils de gestion de communauté pour créer de l'engagement ;

  • L'assurance de ne plus jamais être associé à des contenus haineux, polluants et susceptibles de générer un bad buzz.

Halte à la toxicité en ligne ! Offrir un environnement de jeu sain est devenu une priorité pour l'industrie du gaming. Appuyez-vous sur un véritable outil de modération contextuelle pour favoriser la diversité et l'inclusion de votre public. Vous bonifierez l'acquisition et la rétention de vos joueurs pour garder une communauté plus positive et plus sûre.

Les points-clés à retenir :

  • Les comportements toxiques sont une réalité omniprésente dans de nombreux jeux multijoueurs en ligne, sur les réseaux sociaux ou lors des streamings en direct (Twitch, YouTube).

  • Ils peuvent avoir des conséquences bien réelles sur leurs victimes et nuisent à l'image de votre jeu ou plateforme.

  • Grâce à Bodyguard, gérez et éliminez la toxicité en ligne pour garder votre communauté saine.