Accueil Communication responsable Accord européen sur le Règlement des Services Numériques

Accord européen sur le Règlement des Services Numériques

579

Le Conseil et le Parlement Européen viennent de conclure un accord visant à lutter contre les pratiques répréhensibles et illicites sur les plateformes de services numériques. Un accord présenté comme historique et une première mondiale. Présentation de ses principales dispositions.

En discussion depuis déjà plusieurs mois – comme nous le relations dans un précédent article l’accord destiné à encadrer davantage les dérives sur les plateformes de services a abouti ce 23 avril. Certes, ce n’est pour l’heure qu’un accord provisoire puisqu’il nécessite d’être entériné dans les prochains mois par le Conseil et le Parlement Européen. Mais les choses semblent désormais bien engagées. L’objectif de ce Règlement des Services Numériques ou Digital Services Act (DSA) est de contraindre les plateformes de services en ligne à lutter contre les contenus illicites afin de mieux protéger les droits fondamentaux des usagers européens.

Principe de base

Le DSA repose sur un principe simple, à savoir que tout ce qui est illégal hors ligne doit être également considéré comme illégal en ligne. Les réseaux sociaux sont sans doute les principaux visés, mais toute plateforme offrant des services en ligne sur le territoire européen sera soumise à cette nouvelle réglementation.

Sont dans le collimateur de ce nouveau Règlement, les propos haineux, le harcèlement, le revenge porn, la désinformation, mais aussi la vente de produits contrefaits ou de produits ne respectant pas les normes européennes ou nationales, ou encore la vente de produits interdits de vente sur le sol national. Liste bien entendu non limitative.

Principales obligations

Le DSA vise à obliger les plateformes à lutter contre ces pratiques et supprimer les contenus litigieux « promptement » à partir du moment où elles en auront eu connaissance. Elles auront également l’obligation de suspendre les utilisateurs violant « fréquemment » la loi nationale ou européenne. Les plateformes auront également une obligation de transparence sur leurs algorithmes et leurs systèmes de recommandations. Elles seront aussi tenues de mettre en place des mesures appropriées de protection des mineurs et d’interdiction à leur encontre des publicités ciblées sur leurs données personnelles. De manière générale, toute publicité ciblée utilisant des données sensibles est à proscrire. Les plateformes devront mettre en place des outils de signalement.

Obligations renforcées

Les obligations des plateformes seront proportionnées à leur taille, le Règlement se voulant plus contraignant pour les plateformes atteignant plus de 45 millions d’utilisateurs sur le sol européen, soit 10% de la population européenne. Ces grandes plateformes seront ainsi tenues de réaliser chaque année une évaluation des risques que peuvent présenter les services numériques offerts et mettre en place les moyens adéquats pour contenir ces risques. Un contrôle sera assuré chaque année sous la forme d’un audit conduit par un organisme indépendant. Seront ainsi évalués la diffusion de contenus illicites, les effets néfastes des services sur les droits fondamentaux, les risques sur les processus démocratiques et sur la sécurité publique, les effets néfastes sur les violences basées sur le genre, sur les mineurs, sur la santé physique ou mentale. Enfin, les plateformes dépassant le seuil des 45 millions d’utilisateurs seront directement placées sous le contrôle de la Commission Européenne.

Un mécanisme de crise

Peut-être inspiré par la guerre en Ukraine, le texte initial s’est vu ajouter un dispositif de crise qui pourra être déclenché par la Commission Européenne sur recommandation du Comité des coordinateurs nationaux des services numériques. Ce dispositif permettra le cas échéant de mettre en place des mesures « proportionnées et efficaces », notamment en cas de désinformation.

Les sanctions

Le Règlement prévoit des sanctions lourdes pour les plateformes, puisqu’en cas de récidive, la sanction pourrait atteindre 6% du chiffre d’affaires.

Le DSA devrait entrer en vigueur de manière progressive, là aussi en fonction de la taille des plateformes, les grandes plateformes montrant l’exemple. Au plus tard il devrait s’appliquer à toute plateforme de service en ligne à compter du 17 février 2024. Mais plusieurs obligations (comme par exemple les mesures de protection des mineurs) mises à la charge des plus grosses plateformes concernées seront applicables dès le 25 août 2023.

En France, l’Arcom sera l’instance de coordination avec les concours de la CNIL et de la DGCCRF.

Mise à jour au 20 février 2023

Les grandes plateformes avaient jusqu’au 17 février 2022 pour déclarer leur nombre d’utilisateurs afin de vérifier lesquels seront soumises au DSA. Sans surprise, ce sera donc la cas pour : Google Search avec 332 millions d’utilisateurs, You Tube avec un peu plus de 400 (401,7), Facebook avec 255, Instagram avec 250, Twitter avec 100,9 Bing avec 107 et Tik Tok avec 125.

Mise à jour au 28 avril 2023

La liste des plateformes soumises au DSA vient d’être arrêtée par le Commissaire Européen. Elle compte 17 « très grandes plateformes » et 2 moteurs de recherche : AliExpress, Amazon Store, AppStore, Bing, Booking, Facebook, Google Maps, Google Play, Google Search, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube et enfin Zalando. Cette liste est bien-sûr susceptible d’évoluer.

Mise à jour au 30 avril 2024

La plateforme Shein devient la 23ème plateforme soumise au DSA. Dès le 1er septembre 2024, la plateforme devra donc se conformer aux exigences de ce Règlement.