Bodyguard intégré dans la Twitter toolbox pour offrir un internet plus sûr

J’ai une excellente nouvelle à partager avec nos clients et l’ensemble de nos utilisateurs : Twitter a testé Bodyguard comme technologie de modération de contenu générés par ses utilisateurs et nous a intégré à la nouvelle “Twitter Toolbox” dévoilée en février dernier.

Charles

Charles

Une vision commune pour un meilleur internet

Il y a quelques mois, Twitter me contactait pour associer Bodyguard à un programme visant à identifier les solutions créées par les développeurs pour offrir aux utilisateurs une meilleure expérience sur Twitter.

Le programme en question s’appelle ‘Twitter Toolbox’. Il s’agit d’un “hub” (centre) - en phase bêta - où les utilisateurs de Twitter pourront facilement découvrir, en savoir plus et s’inscrire rapidement à des outils de développeurs tiers pour améliorer leur expérience sur Twitter. Cette toolbox comprend des outils en libre-service, peu coûteux, voire gratuits, destinés à aider les gens à s’exprimer de manière plus créative, à protéger leurs contenus et des profils préjudiciables ainsi qu’à mesurer les performances de leurs contenus sur Twitter.

L’occasion parfaite pour partager mon analyse de la toxicité et ses déclinaisons parfois spécifiques à la plateforme, mais aussi pour proposer un test de notre technologie propriétaire.

Bodyguard : un outil qui répond à un besoin urgent des utilisateurs

Twitter a testé la solution de Bodyguard sur la base deux piliers indissociables :

  • Notre approche technologique, pour déterminer comment notre outil fonctionne et protège les utilisateurs ;

  • Notre approche produit et notre philosophie générale de la lutte contre le harcèlement en ligne.

Le résultat ? Un taux de détection record de 90 % pour tous les types de contenus toxiques sur les comptes européens et américains !

Bodyguard : comment ça marche ?

L’implémentation de Bodyguard permet d’aller au-delà du simple outil de signalement proposé aux utilisateurs de Twitter. Il s’appuie sur plusieurs principes :

  • La détection automatique et le shadow banning des messages haineux selon leur type : insultes, menaces, trolling, body-shaming, homophobie, racisme, misogynie, harcèlement sexuel ou moral…

  • La suppression de contenu non désiré : spams, tentatives d’escroquerie, publicités déguisées – tout ce qui pollue l’espace de discussion ;

  • Le ban et le shadow banning des utilisateurs ;

  • Un paramétrage en protection individuelle (supprimer uniquement les commentaires malveillants vous étant destinés) ou générale (supprimer tous les contenus haineux) ;

  • Différents niveaux de modération (aucune, basse, moyenne, forte ou maximale).

Sur Twitter, Bodyguard permet la modération de tous les commentaires toxiques, y compris ceux adressés en réponse aux utilisateurs de notre outil. Comment ? En les dissimulant à la fin du fil de commentaires, selon le principe du shadow banning : ce principe évite de pénaliser le taux d’engagement du réseau social, puisque les messages ne sont pas supprimés mais uniquement masqués. Un auteur bloqué, quant à lui, n’aura plus la possibilité de suivre le compte de l’utilisateur.

Pour ces différentes raisons, Bodyguard a donc intégré récemment la Twitter Toolbox, accessible à tous les membres du réseau social. Notre technologie est accessible gratuitement via une application mobile, ou en version payante pour profiter d’une modération personnalisée poussée mais aussi d’un tableau de bord et d’outils analytiques complets pour la gestion de communauté.

Bodyguard confirme aujourd’hui son statut de solution de modération en ligne de pointe pour les grands réseaux sociaux. Notre équipe est déterminée à faire de Twitter, et des autres plateformes, un environnement plus sûr et plus accueillant.

L’intégration à la Twitter Toolbox nous donne un accès privilégié pour faire évoluer en permanence notre technologie, améliorer l’expérience des utilisateurs sur le réseau social et toujours conserver une longueur d’avance sur les utilisateurs toxiques.

Charles Cohen