Accueil > Actualités > DSA : le Digital Service Act en question(s)
Actualités
Stéphanie L.
9 novembre 2023

Le 24 août 2023, le DSA, Digital Service Act est entré en vigueur. Cette nouvelle réglementation vise à protéger les internautes. De quoi ? Pourquoi ? Comment ? Avec quelles limites ? La loi soulève bien des questions.

Qu’est-ce que le DSA ?

Le DSA est un règlement européen qui vise à protéger les utilisateurs d’Internet de tout ce qui peut leur nuire : contenus illicites, désinformation, vente de produits illicites en ligne, algorithmes de proposition des contenus.

Depuis le 25 août 2023, le DSA s’applique aux plateformes en ligne et aux moteurs de recherche comptant plus de 45 millions d’utilisateurs dans l’Union européenne (soit 10 % de la population européenne) : 

  • 2 très grands moteurs de recherche en ligne (VLOSE) : Google Search et Bing.
  • 17 très grandes plateformes en ligne (VLOP) : Alibaba AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter ou X désormais, Wikipedia, YouTube, Zalando.

À partir du 17 février 2024, il s’appliquera au reste des plateformes et intermédiaires offrant biens, contenus ou services sur le marché européen. 

Des amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial sont prévues pour les entreprises en cas de non-respect du Digital Service Act.

En cas de violations du règlement graves et répétées, les plateformes pourront se voir interdire le marché européen.

Pourquoi une nouvelle loi ?

L’objectif du DSA est à la fois de protéger les internautes et de leur redonner une certaine liberté (de penser).

Le DSA applique le principe : « ce qui est illégal hors ligne doit aussi l’être en ligne. » Le texte du DSA donne une définition large et plutôt précise des contenus “illicites” illégaux, de la pédopornographie à la vente de produits contrefaits. 

Les contenus illicites selon le DSA : “des informations, quelle que soit leur forme, qui, en vertu du droit applicable, sont soit elles-mêmes illicites, comme les discours haineux illégaux ou les contenus à caractère terroriste et les contenus discriminatoires illégaux, soit rendues illicites par les règles applicables en raison du fait qu’elles se rapportent à des activités illégales.”

Avant le DSA, les procédures de notification et de retrait des contenus et produits étaient différentes d’un Etat membre à l’autre. Les messages et contenus qui devaient être supprimés l’étaient souvent trop longtemps après leur diffusion. 

Le DSA vise aussi le cercle vicieux de certains algorithmes, qui peut vite enfermer l’internaute et l’inciter à effectuer des actions non souhaitées sur un site au bénéfice de ce dernier, ou à visualiser des contenus non souhaités, parfois choquants. 

Le dispositif vise à redonner le pouvoir de s’en affranchir aux internautes. 

Ces algorithmes étaient jusqu’à présent gardés secrets par leur propriétaire. L’Union Européenne veut pouvoir les contrôler. 

La loi veut aussi encadrer de façon beaucoup plus rigoureuse la publicité ciblée.

Qu’implique le DSA pour les entreprises concernées ?

Concrètement, le DSA comporte des obligations de deux types.

Plus de transparence et de liberté pour l’utilisateur

Ces objectifs passent par plusieurs contraintes pour les plateformes, les contraignant à modifier leur algorithme et leur application : 

  1. Donner la possibilité de désactiver l’algorithme de suggestion des contenus. Elles doivent proposer une alternative, comme l’ affichage chronologique des contenus des personnes qu’elles suivent uniquement.
  2. Justifier les contenus publicitaires proposés. Les plateformes devront expliquer pourquoi les contenus publicitaires sont proposés et expliquer comment les données ont été récupérées. 
  3. Mettre fin au ciblage “abusif”. Le DSA interdit de cibler des utilisateurs avec des publicités en ligne basées sur leur religion, leurs préférences sexuelles, des informations sur leur santé ou leurs convictions politiques. 
  4. Protéger les mineurs. La publicité ciblée est interdite vis-à-vis des mineurs. 

Informer de façon simple et claire les utilisateurs sur les conditions générales d’utilisation.

Le DSA doit donner aux utilisateurs la possibilité de désactiver l’algorithme de suivi des contenus, sur You tube par exemple;

Plus de modération

Le DSA prend en compte le statut d’”hébergeurs passifs” des plateformes mais les contraint à mettre en place les moyens nécessaires pour neutraliser tout contenu illicite. 

Les plateformes doivent désormais : 

  • Permettre aux utilisateurs de les signaler facilement les contenus choquants
  • Retirer rapidement les contenus signalés.

Mais aussi, en amont : 

  • Analyser les risques qu’elles génèrent : violence en ligne, atteintes aux droits fondamentaux, risques pour la santé publique, discours civique… 
  • Faire réaliser tous les ans des audits indépendants pour contrôler ces risques 
  • Coopérer avec des « signaleurs de confiance », entités indépendantes, comme la plateforme Pharos en France. 
  • Transmettre les algorithmes de leurs interfaces à la Commission et aux autorités nationales compétentes ;
  • Laisser accès aux données clés de leurs interfaces aux chercheurs.

Quelles questions pose le dispositif DSA ?

Si l’intention de protection des utilisateurs est louable, elle pose plusieurs questions d’ordre pratique et éthique.

Le dispositif profitera-t-il vraiment au plus grand nombre d’utilisateurs ?

Pour éviter les écueils de contenus non désirés et les publicités ciblées trop intrusives, l’utilisateur doit aller fouiller dans ses paramètres pour faire les réglages appropriés. Pas sûr que les plus jeunes, pourtant les premiers à protéger, aillent bricoler leurs paramètres utilisateurs pour ne pas être exposés à de nouveaux contenus…

Le premier frein à l’efficacité du DSA, pourrait être la force des habitudes de navigation. Un peu comme notre propension à refuser les cookies dépend toujours un peu de la façon dont ils sont présentés…

Le DSA a-t-il les moyens de ses ambitions ?

D’ici à 2024, 125 salariés de la Commission européenne surveilleront les activités des entreprises concernées. Le Centre européen pour la transparence des algorithmes (ECAT) devrait aussi, à date, regrouper une quarantaine de chercheurs.

Des « frais de supervision » seront demandés aux entreprises concernées, dans la limite de 0,05% de leur chiffre d’affaires annuel mondial. 

Des chiffres qui peuvent sembler bien maigres au regard des millions de contenus à surveiller sur les 17 plateformes et les 2 moteurs de recherche.  

Mais au-delà des moyens techniques et financiers, se pose la question de la légitimité dont l’UE bénéficie pour faire respecter ses directives. La lettre envoyée par Thierry Breton, le directeur de la commission européenne, à Elon Musk pour l’enjoindre à modérer les fausses informations et contenus illégaux liés au conflit Israël-Hamas, lui a, par exemple, valu les sarcasmes du milliardaire attaché à une liberté d’expression sans entrave. Sous le tweet de Thierry Breton adressé au patron de X (Twitter) de nombreux internautes criaient quant à eux à la censure… 

Le DSA menace t’il la liberté d’expression ?

Dès l’entrée en vigueur du dispositif DSA, Thierry Breton se défendait de toute entrave à la liberté d’expression  “La modération du contenu ne signifie pas la censure. En Europe, il n’y aura pas de ministère de la Vérité”, assurait-il.  

Quoiqu’il en soit, on peut s’interroger sur les critères retenus par le Centre européen pour la transparence des algorithmes pour évaluer, voire juger de la conformité des contenus aux directives du DSA. A lire les précisions de l’article 12 de la directive, la frontière du « ce qui est illégal hors ligne doit aussi l’être en ligne » ne semble pas si marquée que cela, tout comme la frontière entre la censure et la lutte contre la désinformation :

L’accélération du dispositif DSA avec le conflit au proche Orient

Quelques mois seulement après son adoption, le DSA a pris une dimension politique avec la flambée du conflit israélo-palestinien qui met en lumière de nouvelles limites du dispositif : où commence (ou s’arrête) la désinformation à l’ère de l’IA ?

Le conflit armé opposant Israël au Hamas depuis le 7 octobre dernier a poussé le DSA à muscler son fonctionnement. Ainsi, le 18 octobre 2023, dans un discours intitulé “Lutte contre la désinformation et la diffusion de contenus illicites dans le cadre de la loi sur les services numériques et en période de conflit”, Thierry Breton annonçait qu’en attendant la mise en place comme prévue initialement, d’un comité de coordinateurs pour les services numériques le 17 février 2024, la commission européenne allait s’entourer d’acteurs de la régulation de différents pays (pour l’instant, l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) en France et Coimisiún na Meán en Irlande. 

“Si le DSA doit permettre d’éviter l’amplification de contenus illicites, ce n’est pas au DSA –  ni à la Commission – de dire ce qui est légal et ce qui ne l’est pas, ce qui est vrai et ce qui est faux : d’autres lois traitent de ces questions et doivent être appliquées par les États membres” notait Thierry Breton pour justifier ces collaborations, évoquant le Christchurch Call. Un engagement contre l’utilisation d’Internet comme arme de propagande terroriste signé le 15 mai 2019 par 120 gouvernements, fournisseur de services Internet et ONG. 

Les réactions des plateformes au DSA

Comment les grandes plateformes vont-elles s’adapter à ces nouvelles règles ? Pour l’instant, X (ex-Twitter) s’est engagé dans un bras de fer avec Thierry Breton. Tik Tok se plie aux recommandations du DSA et annonce “fournir à sa communauté en Europe des informations sur un éventail plus large de décisions de modération de contenu”. En réaction au DSA, META (Facebook et Instagram) a mis en place un abonnement payant, sans publicité : « les usagers au sein de l’Union européenne, de la Suisse du reste de l’Espace économique européen (Islande, Norvège, Liechtenstein) auront le choix de continuer à utiliser gratuitement » les deux plateformes avec des publicités personnalisées, « ou de s’abonner pour ne plus voir de publicités ». Une façon de contourner la réglementation européenne. Les utilisateurs auront-ils vraiment envie de payer (12,99 euros pour les applications mobiles sur smartphone) pour ne plus subir les publicités imposées par l’algorithme ?

Partager cet article sur