Le Digital Services Act en 10 mesures clés

"Ce qui est illégal dans la vraie vie doit également l’être en ligne" Internet a changé presque tous les aspects de la société au cours des deux dernières décennies. Il a permis aux gens de communiquer et de partager des informations plus librement que jamais auparavant.

L'équipe Bodyguard.ai

L'équipe Bodyguard.ai

Toutefois, il a également apporté son lot de défis. Que ce soit sur l’explosion de contenus toxiques comme les "fake news", les messages haineux ou les contenus extrémistes sur les réseaux sociaux, l’Union Européenne cherche à mettre en place un cadre juridique permettant de légiférer et de préserver les droits des utilisateurs.

Le Digital Services Act, c’est quoi ?

Contrairement au DMA (Digital Market Act), qui se focalise sur la réglementation du marché ainsi que le droit à la concurrence et la régulation des activités des GAFAM (ou VLOPs => Very Large Online Platforms), le DSA (Digital Services Act) se concentre sur la dimension de services et l'encadrement des plateformes et réseaux sociaux pour lutter au mieux contre la désinformation et la haine en ligne. L’objectif se porte sur la responsabilisation des plateformes, telles que Facebook, Twitter, YouTube et sur ce qu'elles diffusent.

Digital Services Act ou Législation sur les services numériques

  • Un nouveau texte majeur au même titre que la RGPD, le DMA et la ePrivacy (Vie privée et communications électroniques),

  • Texte présenté en décembre 2020 et qui entrera en vigueur en 2023 et normalement applicable à tous les pays membres au plus tard le 1 janvier 2024,

  • On peut considérer le DMA comme étant le jumeau législatif du DSA.

Le DSA, ça concerne qui ?

  • Toutes les plateformes sociales de toutes tailles avec des obligations variants selon leur rôle, leur taille et leur impact :

  • UGC Platform (User Generated Content) => Google, Meta ou Twitter, mais aussi les plateformes de petites tailles,

  • les moteurs de recherches (search engines),

  • les marketplaces en ligne → Ebay, LeBonCoin, Vinted

Notre analyse des 10 mesures clés de Thierry Breton sur la Législation sur les Services Numériques

  1. Un grand pouvoir implique de grandes responsabilité

    Le DSA fixe des obligations claires et harmonisées pour les plateformes - proportionnelles à la taille, à l'impact & au risque. A titre d’exemple, les plateformes possédant moins de 45 millions d’utilisateurs seront exemptées de certaines obligations du DSA. 

  2. Un système harmonisé pour lutter contre TOUTES les formes de #contenu illégal - des produits contrefaits ou dangereux aux discours de haine

    Toute autorité nationale pourra demander le retrait d'un contenu illégal, quel que soit le lieu d'établissement de la plateforme en Europe. Sont considérés comme contenus illégaux : les propos et discours haineux, les contenus relatifs à l'exploitation sexuelle des enfants, les escroqueries, le partage non consensuel d'images privées, la promotion du terrorisme, la vente de produits contrefaits ou dangereux et la violation des droits d'auteur.

  3. Protéger les droits fondamentaux, notamment le pluralisme des médias, dans la modération des contenus

    Les utilisateurs seront habilités à choisir comment ils reçoivent des recommandations & du contenu. Les comptes des utilisateurs ne pourront être suspendus que sur la base de règles précises et appliquées de manière prévisible.

  4. Plus d'excuse du type "je ne suis qu'un intermédiaire" !

    Davantage de protection pour les consommateurs sur les marketplaces :

    • nouvelle possibilité d’action pour les violations du DSA,

    • obligation d'un point de contact en Europe,

    • plus de transparence sur les produits vendus,

    • connaître son client professionnel.

  5. Vous pouvez (enfin !) parler votre propre langue

    Les plateformes devront disposer de ressources adéquates pour la modération des contenus : nombre de modérateurs, compétences linguistiques spécifiques, etc.

  6. Interdiction de la publicité ciblée pour les enfants

    Plus de protection contre la publicité ciblée destinée aux enfants - ou basée sur des données sensibles.

  7. Ouverture de la "boîte noire" des algorithmes des plateformes

    Désormais, les plateformes auront une obligation de transparence de leurs systèmes de recommandation.
    Elles devront par exemple révéler si elles utilisent des filtres ou des algorithmes automatiques pour la modération des contenus.

  8. Des conditions d'utilisation compréhensibles par tous

    Désormais, les conditions d'utilisation des plateformes devront être claires, accessibles et compréhensibles. Fini les 50 pages en petits caractères et que l'on ne trouve qu'au bout d'une longue série de clics !

  9. Possibilité de supervision directe par la Commission des très grandes plateformes

    La Commission disposera d'équipes spécialisées et embauchera des experts en matière de données, d'algorithmes, de modèles économiques....
    Nous nous appuierons également sur les experts des États membres.

  10. Un mécanisme possible d'intervention d'urgence en cas de crise

    Nous ne pouvons pas compter uniquement sur la bonne volonté des plateformes face aux crises, pandémies ou guerres.
    L'Europe a besoin d'un outil juridique pour obliger les grands acteurs du numérique à réagir rapidement en cas d'urgence.

La suite du Digital Services Act ? 

La Commission européenne a adopté un texte et le Parlement a voté ce 20 janvier une version très similaire. Ne reste plus maintenant qu’à se mettre d'accord sur un texte unique: c'est la phase de "trilogue", qui vient de débuter. Difficile de dire combien de temps cela prendra, mais il y a fort à parier que cela se fera pendant le mandat de la France à la présidence de l'Europe, c'est-à-dire avant la fin juin 2022.

Les 10 points clés que le DSA mettra en place :

  1. Des obligations claires seront fixées selon la taille, l’impact et le risque des plateformes sociales

  2. L’un des objectifs clés est la lutte contre toutes les formes de contenu illégal : des produits contrefaits ou dangereux aux discours de haine

  3. La préservation des droits fondamentaux, y compris le pluralisme des médias, sera prise en compte dans la modération des contenus

  4. Les consommateurs sur les marketplaces seront davantage protégés : obligation d’un point de contact en Europe, plus de transparence sur les produits vendus…

  5. La modération du contenu devra bénéficier d'un soutien adéquat sur les plateformes : la quantité de modérateurs, ou le fait d’avoir accès à un support parlant votre langue

  6. La publicité ciblée pour les enfants sera interdite et une protection plus accrue sera mise en place

  7. Les plateformes devront obligatoirement partager leurs systèmes de recommandation : par exemple, plus de clarté sur leur fonctionnement technique

  8. Des conditions d'utilisation plus faciles à lire et compréhensibles de tous

  9. Les très grandes plateformes pourront être supervisées directement par la Commission avec des équipes spécialisées (experts de données, d’algorithmes, de modèles économiques, ou des Etats membres directement…)

  10. Un outil juridique rentrera en rigueur pour faire réagir rapidement les grandes plateformes en cas d’événements exceptionnels (communication de crise, pandémies, guerres…)