Qu'est-ce que la modération ?

Internet représente un formidable espace de communication où chacun peut s’exprimer. Cependant, les propos haineux se propagent rapidement et la liberté d'expression n'autorise pas à tout dire : elle est encadrée par la loi. Sur les plateformes web, elle doit être surveillée pour prévenir les débordements : propos injurieux, harcèlement en ligne... Un manque de modération a des effets négatifs sur la communauté, mais aussi sur l'image de marque.

Charles

Charles

La modération en ligne : définition

Le rôle de la modération consiste à encadrer les propos des uns et des autres pour s’assurer que les échanges se fassent dans le respect. Il s’agit de supprimer les commentaires laissés par des internautes contrevenants aux règles mises en place. Cela concerne par exemple le sexisme, le racisme, les insultes, l’homophobie, les menaces… L’objectif est multiple :

  • Favoriser les débats constructifs, le portage de points de vue dans le respect des uns et des autres ;

  • Protéger la communauté des trolls, arnaques, menaces, propos déplacés...

  • Maîtriser l’image de marque en filtrant des commentaires négatifs pouvant y porter atteinte.

Les différents types de modération

  • Modération humaine : elle permet un filtrage plus nuancé, mais elle présente des problèmes. Par exemple, la trop grande quantité de messages à vérifier occasionnant une perte de réactivité. L'impact psychologique de ce travail doit aussi être considéré : les modérateurs sont sans cesse exposés à des contenus problématiques.

  • Modération automatique : elle offre une réactivité immédiate. Les contenus détectés peuvent être filtrés avant leur publication sur une plateforme client ou quelques instants après sa publication sur les réseaux sociaux. Son seul défaut est de manquer parfois de subtilité. Mais grâce aux progrès de l'intelligence artificielle, le taux d’erreur et de faux positif se réduit significativement.

La modération par Bodyguard

Bodyguard a développé Bodyguard.ai, une technologie unique pour modérer les contenus en ligne. Elle s'articule autour de plusieurs axes pour aider les entreprises à construire un espace numérique sûr et bienveillant :

  • Une analyse contextuelle des propos afin de déterminer s'il s’agit d’un contenu neutre, haineux, polluant ou positif ;

  • Une modération fine des contenus haineux ou polluants : spams, trolling, arnaques, insultes, misogynie, haine, menaces, racisme, LGBTQ + Phobie, harcèlement sexuel ou moral, body-shaming...

  • Différents niveaux de modération selon les préférences du client ;

  • Plusieurs actions possibles en fonction des plateformes et des règles définies avec le client : supprimer ou masquer le commentaire, shadowban, muter ou bannir l'auteur.

La solution Bodyguard.ai est capable d'analyser pour chaque commentaire son niveau de toxicité. Elle distingue l'auteur, le destinataire, le contexte, les termes employés... Les contenus polluants (spams, arnaques, publicités indésirables) qui entravent la qualité des interactions sont aussi détectés et supprimés.. L'espace commentaire reste ainsi un lieu d'échanges constructifs, agréables, dans le respect de chacun. Les propos positifs peuvent eux aussi être détectés, ce qui permet d’identifier facilement les membres de sa communauté réagissant positivement à ses contenus et de les transformer en ambassadeurs !

La modération des contenus est essentielle pour préserver leur image de marque et le bien-être de la communauté.. Une solution de modération automatique basée sur l'intelligence artificielle, comme Bodyguard.ai, aide les entreprises à maîtriser leurs espaces de communication.

Les 3 points-clés à retenir :

  • La modération consiste à détecter, puis supprimer les propos toxiques ou polluants.

  • Elle peut être humaine ou automatique.

  • Elle est indispensable pour construire des espaces de communication bienveillants, agréables, respectant la communauté et l'image de marque de l'entreprise.