Modérer les réseaux sociaux avec bon sens

Le phénomène de la haine en ligne justifie l’existence d’une modération sur les grands réseaux sociaux comme Facebook, Instagram, ou Twitter. Mais comment contenir efficacement les messages toxiques sans porter atteinte à la liberté d’expression ?

L'équipe Bodyguard

L'équipe Bodyguard

 De nouveaux outils intelligents comme Bodyguard.ai s’appuient sur la force de l’analyse contextuelle pour changer la donne.

Pourquoi modérer vos social networks ?

Que vous soyez un média, un club sportif, un éditeur de jeux vidéo, une plateforme ou une marque, les réseaux sociaux sont aujourd’hui au cœur de la stratégie de communication de la plupart des entreprises. L’animation de communauté a pour priorité :

  • de protéger vos utilisateurs pour les garder et en attirer de nouveaux (acquisition) ;

  • de booster vos revenus publicitaires ;

  • de bonifier votre e-réputation ;

  • de garder la maîtrise des messages échangés sur votre plateforme. 

Or, quelle pire publicité qu’un fil de commentaires où abondent les insultes, les propos violemment discriminants et autres contenus toxiques ? Tout l’enjeu consiste à fixer les bonnes limites à un outil de modération pour ne pas empiéter sur l’exercice légitime de la liberté d’expression.

Modération : une définition

La modération regroupe l’ensemble des méthodes permettant de supprimer les contenus publiés par les internautes sur votre site ou vos pages de profil. Elle peut s’appliquer aussi bien à des commentaires sous les posts, images, vidéos ainsi que des réponses aux commentaires ou encore des commentaires sur des événements live.

Qu’est-ce qu’une modération intelligente sur les réseaux sociaux ?

Pour faire face à la masse des contenus publiés à chaque instant, un outil de modération automatique est la clé. Il doit idéalement respecter ces dix caractéristiques :

  • une capacité d’analyse contextuelle, pour distinguer plus finement les contenus problématiques et acceptables ;

  • une compréhension évoluée du « langage Internet » et une adaptation aux usages des réseaux sociaux (fautes d'orthographe, emoji...);

  • des paramètres de personnalisation ;

  • un excellent taux de détection (90 à 98% selon les langues) contre seulement 2 % de « faux positifs » ;

  • l’utilisation optimisée des données exploitables ;

  • des mises à jour sémantiques régulières avec l’ajout de nouveaux mots ;

  • une évolutivité poussée et une modération en temps réel ;

  • une large compatibilité technique facilitant le processus implémentation ;

  • des résultats faciles à mesurer ;

  • un coût maîtrisé.

Modération intelligente : un exemple

Un message insultant ou haineux diffusé sur votre réseau ou plateforme peut être facilement dissimulé par certaines astuces typographiques. Un outil de modération intelligent saura par exemple reconnaître l’intention malveillante derrière ce type de commentaire :

  • « T’es un gros (onn@rddddd »

  • « Show me ur b(.)(.)bs »

Quelle modération sur chaque réseau social ?

Chaque réseau social se distingue par ses propres règles et usages. Une modération pertinente sur une plateforme ne le sera pas nécessairement sur l’autre. Une solution technologique comme Bodyguard.ai assure une modération différenciée sur chaque réseau :

  • Sur Instagram, la veille s’applique sur les 20 posts les plus récents du profil et permet de modérer tous les messages répondant à ces publications. Les messages supprimés ne seront visibles que par l’auteur du commentaire.

  • Sur Twitter, le principe retenu est celui du shadowbanning : les messages modérés apparaîtront à la fin du fil de commentaires. Leurs auteurs peuvent être bloqués puis éventuellement débloqués.

  • Facebook autorise la suppression des commentaires, rendus uniquement visibles par leur auteur, et autorise en complément le blocage pour interdire l’accès à la page.

  • Sur Twitch, Bodyguard permet la modération en temps réel des événements live, la suppression complète des commentaires et le ban automatique de l’auteur.

  • Sur Youtube, enfin, il est possible de « ghoster » l’utilisateur posant problème. Cela ne l’empêche pas de continuer à visiter la page et commenter, mais rend tous ses messages uniquement visibles par lui-même.

Les réseaux sociaux nécessitent une politique de modération à la fois fine et ferme, capable de cibler les commentaires haineux sans jamais nuire aux interactions. Un outil automatique de modération comme Bodyguard peut vous y aider de façon très concrète.

Les trois points-clés à retenir :

  • Une modération insuffisante peut conduire à la prolifération des messages toxiques.

  • L’analyse contextuelle est une qualité essentielle d’un outil de modération.

  • Chaque réseau social appelle sa propre forme de modération .