Community Managers: qui les protège ?

Toujours sur le front pour modérer les commentaires et les contenus toxiques, les community managers sont exposés quotidiennement à une forte négativité.

L'équipe Bodyguard

L'équipe Bodyguard

Leur bien-être moral et mental n’est pas à négliger. Quelles sont les solutions humaines et technologiques permettant de mieux les aider dans leurs tâches quotidiennes ?

Modération en ligne : une responsabilité particulièrement éprouvante

L’affaire avait fait la une de l’actualité : en décembre 2021, une ancienne modératrice de TikTok a décidé de poursuivre le célèbre réseau social en justice. Le motif ? Un « traumatisme psychologique » causé par le visionnage constant de contenus graphiques choquants ou violents, dans le cadre de ses fonctions.

Le phénomène de la haine en ligne impacte tout le monde, même ceux censés la combattre. Certains auraient presque tendance à l’oublier : les modérateurs et community managers sont des personnes comme tout le monde. Ils peuvent souffrir du harcèlement ou des insultes lues à longueur de journée.

La difficulté propre à l’animation d’une communauté en ligne est de plus en plus reconnue. Certaines initiatives comme la semaine contre le cyberharcèlement de Konbini ont permis la libération de la parole chez de nombreux professionnels de la modération.

Toxicité de masse : toujours plus insurmontable pour la modération humaine

  • Selon une étude publiée par Ditch the Label en 2022, les commentaires haineux auraient connu une augmentation de 20 % en seulement deux ans.

  • Une personne sur cinq en est victime, et deux personnes sur cinq en ont déjà été témoins.

  • Selon le dernier Digital Overview de Hootsuite, l’audience globale des réseaux sociaux continue à croître de 10 % par an.

Comment préserver le bien-être de vos community managers ?

Plusieurs solutions de nature organisationnelle et humaine peuvent être envisagées pour alléger la charge mentale des responsables de communauté en ligne :

  • l’encadrement d’un véritable droit à la déconnexion au sein de l’entreprise ;

  • la mise en place d’un tour parmi les collaborateurs, pour éviter de confier aux mêmes community managers le filtrage des commentaires négatifs ;

  • une procédure de blocage plus rapide pour les utilisateurs problématiques.

La véritable clé réside cependant dans la mise en œuvre d’un outil performant de modération automatique.

Pourquoi Bodyguard est l’outil parfait pour les community managers ?

Bodyguard.ai est une solution nouvelle génération, en capacité de traiter plusieurs millions de commentaires en une poignée de secondes. Ses capacités d’analyse contextuelle, s’appuyant sur le traitement du langage naturel (NLP), lui permettent de reconnaître un commentaire ou comportement haineux même déguisé. L’outil présente un taux de réussite situé entre 90 et 95 %.

La technologie Bodyguard reproduit fidèlement les méthodes de modération des contenus haineux adoptées au quotidien par les community managers, entraînant ainsi un gain de temps considérable.

Le dashboard permet d’affiner la stratégie de contenu des CM avec un haut niveau de précision. Grâce aux statistiques fournies, il leur est possible :

  • d’identifier les contenus fonctionnant le mieux, ou ceux ayant suscité le plus de réactions négatives ;

  • d’en apprendre plus sur la communauté : quels abonnés sont les plus loyaux et engagés, ou a contrario les plus virulents ?

  • de récolter des données essentielles pour leur tâche, impossibles à récupérer avec un autre outil de modération.

***

Le traitement automatisé constitue l’avenir de la lutte contre la haine en ligne. Il préserve activement le bien-être des community managers chargés d’animer leur communauté, en préfiltrant la plus grande partie des messages. N’hésitez pas à solliciter une démonstration de l’outil Bodyguard.ai !

Les trois points-clés à retenir :

  • Constamment exposés à la haine en ligne, les modérateurs peuvent développer une vulnérabilité.

  • La modération automatique Bodyguard.ai soulage les community managers de la partie la plus ingrate de leur travail.

  • Il s’agit d’un véritable outil de prévention pour le bien-être psychologique de vos équipes.