25 mars 2026
En 2025, la haine en ligne se polarise et frappe d’abord les médias et le sport
Si au cours de l’année 2024 la toxicité et la haine en ligne ont fortement progressé, l’année 2025 fut celle de la consolidation et de la polarisation du phénomène. Toujours fortement corrélé à une actualité géopolitique et sportive dense, la haine en ligne emprunte de nouveaux chemins. Aujourd’hui, Bodyguard fait le point sur ces dynamiques dans son nouvel observatoire de la haine et la toxicité en ligne.
Chiffres et enseignements clés de l’observatoire 2025 :
- Le secteur des médias et le monde du football sont toujours les plus touchés par la toxicité en ligne.
- Facebook et YouTube sont les plateformes les plus touchées par la toxicité en ligne
- Le secteur des médias est le plus en proie aux messages de haine avec un Post Risk Score* de 3 vs 1,82 en 2024.
- TikTok : 4ème réseau le plus touché par le phénomène
Nice, France - mars 2026 – Après une année 2024 marquée par une forte progression de la haine en ligne (+16 % par rapport à 2023), l’année 2025 confirme l’installation durable du phénomène. Si le volume de contenus toxiques reste extrêmement élevé, la période se distingue surtout par une polarisation accrue des discours haineux, souvent liée à une actualité géopolitique et sportive particulièrement intense. C’est ce que révèle la deuxième édition de l’Observatoire de la haine et de la toxicité en ligne publié par Bodyguard. Basée sur l’analyse de plus de 14 milliards de commentaires publiés en 2025, cette étude met en lumière les nouvelles dynamiques de la haine en ligne. Elle voit son périmètre d’étude élargi avec l’intégration de nouvelles marques et également de deux nouvelles plateformes : TikTok et Discord.
2025, une dynamique globale similaire à 2024
En 2025, plus de 14 milliards de commentaires ont été analysés par la technologie Bodyguard (contre 3,8 milliards en 2024), parmi lesquels 182 millions ont été identifiés comme toxiques (108 millions en 2024). Malgré les évolutions d’usage et la migration progressive des utilisateurs entre plateformes, la toxicité en ligne reste forte.
Les insultes (47 %) et les messages de haine directe (14 %) demeurent les formes de contenus toxiques les plus répandues tous réseaux sociaux confondus. Les différentes formes de racisme représentent quant à elles 6 % des messages toxiques.
Du côté des plateformes, Facebook et YouTube concentrent toujours la plus forte proportion de commentaires toxiques. Les deux nouvelles plateformes analysées dans cette édition, TikTok et Discord, se classent respectivement en 4ᵉ et dernière position.
Une polarisation croissante des discours toxiques
Si les volumes restent comparables aux tendances observées en 2024, l’année 2025 se distingue par une radicalisation et une polarisation des discours.
Crises géopolitiques, grandes compétitions sportives et polarisation croissante du débat public ont contribué à amplifier les tensions sur les réseaux sociaux.
Dans le secteur des médias, les attaques visant directement les rédactions ou les journalistes ont progressivement laissé place à des discours plus idéologiques et identitaires. Ainsi, 53 % des commentaires toxiques observés dans ce secteur relèvent désormais de propos racistes, xénophobes ou anti-immigration. Les attaques visant les communautés LGBTQIA+ progressent également et représentent 17 % des contenus toxiques observés sur ces pages.
Conséquence : le secteur des médias enregistre le niveau de risque le plus élevé, avec un Post Risk Score atteignant 3, contre 1,8 en 2024.
Dans le monde du sport, la toxicité vise de plus en plus directement les athlètes eux-mêmes. 64 % des commentaires toxiques analysés s’attaquent directement aux sportifs, mêlant critiques virulentes de performances et insultes raciales, qui se prolongent désormais bien au-delà des stades.
La toxicité, là où on ne l’attend pas
2025 une année record pour Facebook. Le réseau appartenant au groupe Meta, dont les politiques de modération se sont considérablement assouplies ces dernières années, occupe en 2025 la première place au classement des réseaux les plus commentés et où la toxicité en ligne est la plus présente. 8,3% de commentaire haineux en 2024 contre plus de 10% en 2025. Celui qui occupait la première place l’an dernier, la plateforme dédiée aux contenus vidéos YouTube, bascule en deuxième place de ce classement.
Le nouvel entrant, TikTok, se place lui directement en 4ème place des réseaux les plus en proie à la toxicité en ligne avec 2,4% des commentaires qualifiés de toxiques.
Dans la sphère professionnel, Linkedin semble quant à lui enregistrer toujours plus de commentaires toxiques. 1 point de plus pris en une année passant donc de 0,6% à 1,6% de commentaires qualifiés comme toxiques.
« La toxicité en ligne continue de progresser, mais nous observons surtout une polarisation des discours. Les formes les plus violentes de haine comme les insultes, le racisme ou la xénophobie prennent une place croissante dans les conversations en ligne. Les actualités géopolitiques et sportives intenses de 2025 ont clairement contribué à amplifier ces tensions » explique Charles Cohen, fondateur et CEO de Bodyguard.
Méthodologie de l’observatoire :
La deuxième édition de l’observatoire de la haine en ligne, du cyberharcèlement et des comportements sur les réseaux sociaux de Bodyguard se base sur l’analyse de plus de 14 milliards de commentaires publiés sur les réseaux sociaux du 1er janvier au 1er décembre 2025 et de 234 sources API (équivalent à 1,18 milliards de messages par mois) dans les secteurs des médias, du sport, du luxe et du gaming sur Facebook, Instagram, X, Linkedin, Youtube et Twitch, TikTok et Discord et dans 45 langues. Parmi ces 14 milliards de message, analysés, plus de 182 millions ont été qualifiés de toxiques par la technologie Bodyguard. C’est ces 14 milliards de commentaires et ces 182 millions de commentaires haineux qui constituent le terrain d’étude de cet observatoire.
Lexique :
Catégories de haine :
- Insultes : Langage irrespectueux ou abusif à l'encontre d'une personne.
- Haine : Commentaires visant à insulter ou à blesser une personne, un groupe ou une entité, représentant une attitude d'hostilité fondamentale à l'égard de la cible.
- Racisme : Tout type de discrimination ou de préjugé à l'encontre d'individus sur la base de leur appartenance à un groupe racial ou ethnique particulier.
- Bodyshaming : Tout type de discrimination ou de préjugé à l'égard de l'apparence physique ou des modifications d'une personne.
- LGBTQIA+Phobia : Tout type de discrimination ou de préjugé à l'égard des personnes qui s'identifient comme membres de la communauté LGBTQIA+ ; cela inclut les commentaires ou les comportements visant des personnes non-LGBTQIA+ qui représentent néanmoins des attitudes haineuses LGBTQIA+phobes.
Indicateurs :
- Time Risk Score : temps moyen qu’il faut au premier message haineux pour apparaître sous un post
A propos de Bodyguard
Bodyguard est une solution complète de modération et d’analyse d’audience qui permet aux marques de créer des espaces en ligne plus sûrs et d’optimiser leurs stratégies grâce à des insights exploitables.
Grâce à son intégration fluide, Bodyguard détecte et supprime les contenus nuisibles en temps réel, protégeant ainsi vos plateformes, vos utilisateurs et votre réputation de marque, 24h/24 et 7j/7.
En plus de la modération de contenu, Bodyguard permet aux marques de suivre les conversations en ligne, d’identifier les tendances et de réagir en temps réel pour affiner leurs stratégies.
Pour en savoir plus : https://www.bodyguard.ai/
Contact presse
Bodyguard / Atlantic Lab
Nicolas Schmit
0619233175
Articles populaires
© 2025 Bodyguard.ai — Tous droits réservés.