La modération de contenu est-elle synonyme de censure ?

La modération des réseaux sociaux est-elle illégitime ? La suppression d’un commentaire ou le blocage d’un compte relèvent-ils d’une forme de censure ? La réalité est bien plus nuancée.

L'équipe Bodyguard

L'équipe Bodyguard

Liberté d’expression et réseaux sociaux entretiennent une relation complexe… Le rachat de Twitter par Elon Musk, libertarien convaincu, fait déjà craindre à certains une augmentation de la toxicité en ligne.

Modération en ligne : donner un cadre à la parole au sein d’une communauté

Sur le web, plus particulièrement sur les plateformes sociales, la modération est un processus actif de filtrage et de contrôle des contenus postés par les internautes. Il peut s’agir :

  • Du blocage de contenus haineux ou jugés offensants ;

  • De la suppression de fausses informations (« fake news ») ;

  • De la démonétisation de contenus...

La notion de modération est étroitement liée à celle de gestion de communauté. Toute personne hébergeant un espace de parole sur le web (forum, site web…) est libre d’en fixer les règles. Elle peut imposer à l’ensemble des participants des limites communes à ne pas dépasser. Elle veille ainsi à ne pas engager sa propre responsabilité juridique en cas de publication de contenus illégaux.

La situation est similaire à l’échelle d’un réseau social comme Twitter, YouTube ou Facebook. Ces vastes plateformes restent des entreprises de droit privé. À ce titre, elles ont parfaitement le droit d’exiger le respect de leurs propres conditions d’utilisation et règles de modération. Cela leur permet de créer pour leurs utilisateurs – pouvant inclure des enfants ou d’autres publics vulnérables – un espace sûr.

La censure obéit à un cadre bien différent : il s’agit d’une limitation ou d’une abolition de la liberté d’expression, imposée par la puissance publique et punissable par la loi.

Quelle responsabilité pour les hébergeurs ?

Depuis la loi no 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, les hébergeurs peuvent être poursuivis pour des contenus toxiques apparaissant sur leur site (propos racistes ou injurieux, harcèlement, sexisme…).

La victime peut porter plainte contre l’hébergeur si ce dernier ne donne pas suite après le signalement initial et la demande de suppression.

Quel est le juste niveau de modération en ligne ?

Bien que la modération en ligne ne relève pas de la censure et n’en possède pas les attributs légaux, elle peut devenir excessive si elle est mal encadrée. Cela entraîne une dégradation importante de l’expérience utilisateur, nuisant in fine au fournisseur du service.

L’adoption d’un outil puissant d’analyse contextuelle comme Bodyguard.ai vous donne les moyens de ne pas compromettre la liberté de parole sur votre plateforme. Vous pourrez, au contraire, la stimuler, en éliminant les craintes liées au harcèlement en ligne :

  • La haine en ligne fait l’objet d’une détection automatique et fine, selon le contexte identifié : menaces et insultes, homophobie, racisme…

  • Les autres contenus indésirables (publicités sauvages, spams…) subissent aussi un filtrage instantané.

  • Cinq niveaux de modération (aucune, basse, moyenne, élevée ou maximale) sont proposés pour affiner la pratique au sein de votre espace ou plateforme.

  • Une analyse contextuelle « DirectedAt » permet de savoir à qui s’adresse le contenu à modérer et s’il est réellement toxique ou non. 5 types de « DirectedAt » sont disponibles : User, Family of User, Group of People, Author of Comment et Everyone.

***

Combien d’utilisateurs bien intentionnés hésitent aujourd’hui à poster un commentaire par crainte de subir des insultes ou du harcèlement ? La modération en ligne, bien loin de s’attaquer à la liberté d’expression, en est aujourd’hui le principal garant. Découvrez la solution innovante proposée par Bodyguard.ai

Les trois points-clés à retenir :

  • La modération et la censure obéissent à deux logiques différentes.

  • Une modération en ligne minimale est indispensable pour permettre l’expression de chacun sur la toile.

  • La tâche d’un community manager peut être considérablement adoucie par un outil de modération automatique comme Bodyguard.