Règlement européen sur les services numériques : évolution ou révolution numérique pour l’Europe ?

·

·

Règlement européen sur les services numériques : évolution ou révolution numérique pour l’Europe ?
L’Essentiel : L’adoption du règlement européen n° 2022/2065 sur les services numériques marque une étape déterminante pour l’Europe, visant à réguler le commerce électronique et à renforcer la transparence des GAFAM. Ce règlement, en vigueur d’ici le 17 février 2024, impose des obligations strictes aux plateformes numériques, notamment en matière de lutte contre les contenus illicites. Les nouvelles règles, portées par des figures clés comme Thierry Breton et Margrethe Vestager, visent à protéger les utilisateurs tout en favorisant un écosystème numérique plus équitable. Les plateformes devront s’adapter rapidement à ces exigences pour éviter des sanctions financières significatives.

L’Europe vient de jouer une carte stratégique avec l’adoption du règlement européen n° 2022/2065 du 19 octobre 2022 sur les services numériques : tenter une régulation accrue sur le commerce électronique de l’intermédiation et pousser les GAFAM vers la transparence et la lutte contre les contenus illicites. La mise en conformité des plateformes numériques devra se faire avant le 17 février 2024.

Bien comprendre le nouvel écosystème numérique

Avec le « Digital Markets Act / DMA» (lutte contre les pratiques commerciales anticoncurrentielles numériques), le Règlement sur les Services numériques («Digital Services Act» /DSA) est le second volet de la nouvelle régulation numérique européenne.

Ces deux textes ont été largement portés par le commissaire français au Marché intérieur, Thierry Breton, et son homologue à la Concurrence, la Danoise Margrethe Vestager.

Au sens de la nouvelle réglementation les «plateformes en ligne» incluent non seulement les hébergeurs de données (classiques) mais surtout l’écosystème des Marketplaces et Start up, qualifié de services intermédiaires qui mettent en relation consommateurs et professionnels (Uber, NFT & Co).

Sont ainsi concernés par le Règlement européen, les moteurs de recherche, les hébergeurs, les services d’intermédiation (mise en relation), les places de marché et tous les réseaux sociaux y compris Linkedin.

Restent exclus du nouveau dispositif, les navigateurs (TOR), les assistants vocaux et les services de messagerie en ligne.

Bénéficient de certaines dérogations, les plateformes assimilées aux microentreprises ou à de petites entreprises, à savoir:

celles qui occupent moins de 250 personnes et dont le chiffre d’affaires annuel n’excède pas 50 millions d’euros ou dont le total du bilan annuel n’excède pas 43 millions d’euros;dans la catégorie des PME, une petite entreprise est définie comme une entreprise qui occupe moins de 50 personnes et dont le chiffre d’affaires annuel ou le total du bilan annuel n’excède pas 10 millions d’euros;dans la catégorie des PME, une microentreprise est définie comme une entreprise qui occupe moins de 10 personnes et dont le chiffre d’affaires annuel ou le total du bilan annuel n’excède pas 2 millions d’euros.

L’économie de l’attention

Le modèle économique de certaines plateformes, en particulier des réseaux sociaux, est basé sur l’économie de l’attention et repose sur la rémunération par la vente d’espaces publicitaires.

Maximiser les recettes passe donc notamment par la propagation de contenus violents et/ou clivants et parfois «illicites» comme:

violations en ligne des droits d’auteur, des marques commerciales et des secrets d’affaires;contrefaçon et distribution parallèle non autorisée via l’internet;violations de la protection des consommateurs et de la vie privée,délits de presse dont injure et diffamation;violations de la protection des données;discours de haine et incitation à la violence (ex: contenu à caractère terroriste);pédopornographie ainsi que la divulgation d’images privées à caractère sexuel sans consentement («revenge porn») etc.

Lutte contre la diffusion des contenus illicites

C’est précisément pour lutter contre ces risques systémiques de diffusion des contenus illicites que sont fixées de nouvelles obligations renforcées à la charge des Géants de l’internet : une procédure d’audit, la vigilance sur les risques de contenus illicites, la publication de rapports, un droit d’accès aux algorithmes d’ordonnancement des contenus et de modération, par des chercheurs agrées.

Notification illicite européenne

Est mise en place, pour tous les hébergeurs, un mécanisme de notification de contenus illicite par voie électronique (injonction européenne harmonisée) dont le traitement est suivi notamment par une nouvelle entité: le coordinateur pour les services numériques. Aucune obligation générale de surveillance des contenus n’est toutefois imposée aux hébergeurs.

A noter que les signalements de contenus illicites faits par les signaleurs de confiance sont traités par les Plateformes de façon prioritaire et donnent lieu à des décisions dans les meilleurs délais.

Des obligations à échelle variable

Les plateformes ne sont pas toutes soumises aux mêmes obligations:

Les hébergeurs

En ce qui concerne les hébergeurs, une nouvelle catégorie d’acteurs émerge les « plateformes en ligne » qui, en plus de stocker des informations, les diffusent au public.

Le texte prévoit, en plus des obligations communes à tous les fournisseurs de services intermédiaires, des obligations applicables aux seuls hébergeurs auxquelles s’ajoutent des obligations supplémentaires pour les seules plateformes.

Nouvelles obligations des plateformes en ligne

Les plateformes en ligne devront notamment mettre en place:

Un système interne de traitement des réclamations ; leurs utilisateurs pourront également saisir, en cas de litige, un organe de règlement extrajudiciaire des litiges impartial et indépendant (la décision rendue n’est toutefois pas contraignante). Un mécanisme de notification de contenus illicites facile d’accès et d’utilisation et permettant la soumission de notifications exclusivement par voie électronique

Est également institué un statut de « signaleurs de confiance » (trusted flaggers) dont les plateformes en ligne devront traiter les notifications en priorité, notamment d’un point de vue des délais. Ce statut sera accordé moyennant des critères d’expertise dans la détection, l’identification et la notification des contenus illicites, d’indépendance et de représentation des intérêts collectifs.

Les plateformes seront autorisées à suspendre les comptes fournissant fréquemment des contenus manifestement illicites ainsi que le traitement des notifications des utilisateurs, en cas d’utilisation abusive.

Le texte introduit des obligations de transparence accrues, graduées en fonction de leur nature et de la taille des opérateurs. Sont ainsi prévues pour l’ensemble des intermédiaires, une base commune d’obligations en matière de transparence :

mention claire, dans les conditions générales d’utilisation (CGU), des politiques, procédures et outils de modération, en précisant les cas où la prise de décision est fondée sur des algorithmes et les cas de réexamen par un humain ; publication annuelle d’un rapport sur les modalités et les résultats de leurs activités de modération (y compris la modération volontaire) ; l’obligation d’ajouter dans le rapport sur la modération des informations sur les litiges transmis aux organes de règlement extrajudiciaire des litiges, le nombre de suspensions de comptes, ainsi que le recours à des moyens automatisés de traitement;

Sur les plateformes en ligne, les utilisateurs devront être informés clairement et en temps réel du caractère publicitaire des annonces, de l’identité de l’annonceur, ainsi que des paramètres de ciblage utilisés

Un point de contact unique

Les plateformes devront disposer d’un point de contact unique pour permettre aux utilisateurs de communiquer directement et rapidement avec elles, par voie électronique et de manière conviviale, avec au moins un mode de communication qui ne s’appuie pas uniquement sur des outils automatisés.

Les plateformes qui n’ont pas d’établissement au sein de l’Union, mais qui proposent des services dans l’Union désignent, par écrit, une personne morale ou physique pour agir comme leur représentant légal dans un des États membres dans lequel le fournisseur propose ses services.

Les plateformes incluent dans leurs conditions générales des renseignements sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain, ainsi que sur le règlement intérieur de leur système interne de traitement des réclamations.

Ces conditions générales sont énoncées dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté, et sont mises à la disposition du public dans un format facilement accessible et lisible par une machine.

Les plateformes informent leurs utilisateurs de toute modification importante des conditions générales.

La plateforme qui s’adresse principalement à des mineurs ou est utilisé de manière prédominante par des mineurs, doit expliquer les conditions et les éventuelles restrictions relatives à l’utilisation du service d’une manière compréhensible pour les mineurs (langage adapté).

Lorsqu’une plateforme adopte une sanction vis-à-vis d’un utilisateur, elle agit de manière diligente, objective et proportionnée en tenant compte des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias.

Rapport sur les modérations de contenus

Les fournisseurs de services intermédiaires mettent à la disposition du public, dans un format lisible par une machine et d’une manière facilement accessible, au moins une fois par an, des rapports clairs et facilement compréhensibles sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée.

Conception des interfaces en ligne

Les plateformes en ligne ne conçoivent, n’organisent ni n’exploitent leurs interfaces en ligne de façon à tromper ou à manipuler les destinataires de leur service ou de toute autre façon propre à altérer ou à entraver substantiellement la capacité des destinataires de leur service à prendre des décisions libres et éclairées.

Les Géants de l’Internet

Des obligations renforcées, notamment de vigilance, sont prévues pour les très grandes plateformes, définies comme dépassant un seuil de 45 millions d’utilisateurs, susceptibles de représenter des risques systémiques:

Le cœur du système : les géants du numérique

Contrôle des seuils

Concernant les plateformes de géants du numérique et au plus tard le 17 février 2023 et au moins tous les six mois par la suite, les fournisseurs publient pour chaque plateforme en ligne ou chaque moteur de recherche en ligne, dans une section de leur interface en ligne accessible au public, des informations relatives à la moyenne mensuelle des destinataires actifs du service dans l’Union, calculée sous forme de moyenne au cours des six derniers mois.

Une liste des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne sera publiée au Journal officiel de l’Union européenne.

Obligation de détection des risques systémiques

Une obligation générale de prévention des risques de diffusion des contenus illicites par l’intermédiaire de leurs services porte désormais sur:

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine, la protection des données à caractère personnel, la liberté et le pluralisme des médias, un niveau élevé de protection des consommateurs; tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique; tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

Ces plateformes examinent notamment si et comment les facteurs suivants influencent les risques systémiques de contenus illicites:

a) la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b) leurs systèmes de modération des contenus;

c) les conditions générales applicables et leur mise en application;

d) les systèmes de sélection et de présentation de la publicité;

e) les pratiques du fournisseur en matière de données.

Les évaluations internes examinent également si et comment ces risques sont influencés par la manipulation intentionnelle du service par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

Ces nouvelles obligations passent par l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications de contenus illicites ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence.

Audit des GAFAM à leurs frais

Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne font l’objet d’audits indépendants, à leurs propres frais et au minimum une fois par an.

Publication de rapports

Ces plateformes ont l’obligation de publier un rapport semestrielle sur la modération des contenus.

Registre public des publicités diffusées

Elles doivent également tenir un registre public des publicités diffusées sur leurs services, accessible en ligne, contenant notamment l’identité de l’annonceur, les principaux paramètres de ciblage et le nombre d’utilisateurs touchés, ventilés le cas échéant selon ces paramètres.

Résumé de leurs conditions générales

Un résumé de leurs conditions générales, y compris des mécanismes de recours et de réparation disponibles, concis, facilement accessible et lisible par une machine, dans un langage clair et dépourvu d’ambiguïté, devra être fourni aux utilisateurs.

Plus de contrôle sur la publicité électronique

Identification plus claire de la publicité

Les plateformes en ligne qui présentent de la publicité sur leurs interfaces en ligne veillent à ce que, pour chaque publicité spécifique présentée à chaque destinataire individuel, les destinataires du service puissent de manière claire, précise, non ambiguë et en temps réel:

i) se rendre compte que les informations sont de la publicité, y compris au moyen de marquages bien visibles qui pourraient suivre des normes ;

b) identifier la personne physique ou morale pour le compte de laquelle la publicité est présentée;

c) identifier la personne physique ou morale qui a payé pour la publicité, si cette personne est différente de la personne physique ou morale visée ;

d) déterminer les informations utiles, qui doivent être directement et facilement accessibles à partir de la publicité, concernant les principaux paramètres utilisés pour déterminer le destinataire auquel la publicité est présentée et, le cas échéant, la manière dont ces paramètres peuvent être modifiés.

Les plateformes en ligne fournissent aux destinataires du service une fonctionnalité leur permettant de déclarer si le contenu diffusé constitue une communication commerciale ou s’il contient une telle communication.

L’interdiction du profilage

Aucune publicité ne doit reposer sur du profilage à savoir toute forme de traitement automatisé de données à caractère personnel consistant à utiliser ces données à caractère personnel pour évaluer certains aspects personnels relatifs à une personne physique, notamment pour analyser ou prédire des éléments concernant le rendement au travail, la situation économique, la santé, les préférences personnelles, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements de cette personne physique.

Registre des campagnes publicitaires

Concernant spécifiquement les géants du numérique, un registre accessible en ligne devra permettre l’accès aux informations suivantes:

a) le contenu de la publicité, y compris le nom du produit, du service ou de la marque, ainsi que l’objet de la publicité;

b) la personne physique ou morale pour le compte de laquelle la publicité est présentée;

c) la personne physique ou morale qui a payé la publicité, si cette personne est différente de celle visée au point b);

d) la période au cours de laquelle la publicité a été présentée;

e) le fait que la publicité était ou non destinée à être présentée spécifiquement à un ou plusieurs groupes particuliers de destinataires du service et, dans l’affirmative, les principaux paramètres utilisés à cette fin, y compris, s’il y a lieu, les principaux paramètres utilisés pour exclure un ou plusieurs de ces groupes particuliers;

f) les communications commerciales publiées sur les très grandes plateformes en ligne;

g) le nombre total de destinataires du service atteint et, le cas échéant, les nombres totaux ventilés par État membre pour le u les groupes de destinataires que la publicité ciblait spécifiquement.

Les services en ligne de recommandation de prestataires

Les plateformes en ligne qui utilisent des systèmes de recommandation établissent dans leurs conditions générales, dans un langage simple et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces principaux paramètres.

Ces principaux paramètres expliquent pourquoi certaines informations sont suggérées au destinataire du service. Ils précisent, au minimum: a) les critères les plus importants pour déterminer les informations suggérées au destinataire du service; b) les raisons de l’importance relative de ces paramètres.

Et la protection des mineurs dans tout ça?

Concernant Tik Tok et Cie, le nouveau dispositif met à la charge des plateformes des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service.

Les plateformes ne doivent pas présenter sur leur interface de publicité qui repose sur du profilage des mineurs en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’elles ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur.

Plateformes de mise en relation : la validation légale des professionnels

Les plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels s’assurent d’avoir obtenu les informations suivantes, lorsque cela s’applique au professionnel: a) le nom, l’adresse, le numéro de téléphone et l’adresse de courrier électronique du professionnel; b) un exemplaire du document d’identification du professionnel ou toute autre identification électronique.

Pour ce qui concerne les professionnels déjà référencés, la plateforme doit déployer tous ses efforts pour obtenir du professionnel concerné les informations énumérées dans un délai de douze mois. Lorsque le professionnel concerné ne fournit pas les informations dans ce délai, le fournisseur suspend la fourniture de ses services à ce professionnel jusqu’à ce que celui-ci ait communiqué toutes les informations en question.

En particulier, la plateforme veille à ce que son interface en ligne permette aux professionnels de fournir des informations concernant le nom, l’adresse, le numéro de téléphone et l’adresse de courrier électronique de l’opérateur économique

Après avoir autorisé le professionnel à proposer des produits ou des services sur sa plateforme, le fournisseur s’efforce, dans la mesure du raisonnable, de vérifier de manière aléatoire, dans une base de données en ligne ou une interface en ligne officielle, librement accessible et lisible par une machine, si les produits ou services proposés ont été recensés comme étant illégaux.

contrôle de la conformité

payer à la Commission européenne une redevance de surveillance annuelle au titre de la surveillance et du contrôle de leurs activités

Des sanctions de 1 à 6% du CA mondial

Dernier volet du Règlement européen et non des moindres, en cas de non respects de leurs obligation, les plateformes s’exposent à des amendes qui peuvent représenter 6 % du chiffre d’affaires mondial annuel réalisé au cours de l’exercice précédent.

La fourniture d’informations inexactes, incomplètes ou trompeuses, l’absence de réponse ou la non-rectification d’informations inexactes, incomplètes ou trompeuses et le manquement à l’obligation de se soumettre à une inspection expose à une amende de 1 % des revenus ou du chiffre d’affaires mondial annuels de la plateforme réalisés sur l’exercice précédent.

Une astreinte de 5 % des revenus ou du chiffre d’affaires mondial journaliers moyens de la plateforme de l’exercice précédent, par jour, pourra être calculée à compter de la date spécifiée dans la décision concernée.

Q/R juridiques soulevées :

Qu’est-ce que le règlement européen n° 2022/2065 et quels sont ses objectifs principaux ?

Le règlement européen n° 2022/2065, adopté le 19 octobre 2022, vise à instaurer une régulation plus stricte des services numériques en Europe. Son objectif principal est de réguler le commerce électronique, en particulier les plateformes d’intermédiation, et d’encourager les grandes entreprises technologiques, souvent désignées sous l’acronyme GAFAM (Google, Apple, Facebook, Amazon, Microsoft), à être plus transparentes. Cette régulation cherche également à lutter contre la diffusion de contenus illicites sur ces plateformes. Les entreprises concernées doivent se conformer à ces nouvelles règles avant le 17 février 2024, ce qui souligne l’urgence et l’importance de cette initiative pour garantir un environnement numérique plus sûr et équitable.

Quels sont les deux volets principaux de la régulation numérique européenne ?

La régulation numérique européenne se compose principalement de deux volets : le Digital Markets Act (DMA) et le Digital Services Act (DSA). Le DMA se concentre sur la lutte contre les pratiques commerciales anticoncurrentielles dans le secteur numérique, tandis que le DSA vise à établir des règles claires pour la gestion des contenus en ligne et la responsabilité des plateformes. Ces deux textes ont été largement soutenus par des figures clés de l’Union européenne, notamment Thierry Breton, commissaire français au Marché intérieur, et Margrethe Vestager, commissaire à la Concurrence. Ensemble, ils forment un cadre législatif destiné à réguler les géants du numérique et à protéger les consommateurs.

Quelles plateformes sont concernées par le règlement européen ?

Le règlement européen n° 2022/2065 s’applique à un large éventail de plateformes en ligne. Cela inclut non seulement les hébergeurs de données traditionnels, mais aussi les marketplaces, les services d’intermédiation, les moteurs de recherche, et les réseaux sociaux, tels que LinkedIn. Cependant, certaines exceptions existent. Les navigateurs comme TOR, les assistants vocaux et les services de messagerie en ligne ne sont pas soumis à ce règlement. De plus, des dérogations sont accordées aux microentreprises et petites entreprises, qui sont définies par des critères spécifiques concernant le nombre d’employés et le chiffre d’affaires.

Comment le règlement aborde-t-il la lutte contre les contenus illicites ?

Pour lutter contre la diffusion de contenus illicites, le règlement impose de nouvelles obligations aux grandes plateformes. Cela inclut la mise en place de procédures d’audit, une vigilance accrue sur les risques de contenus illicites, et la publication de rapports réguliers. Les plateformes doivent également permettre un accès aux algorithmes de modération pour des chercheurs agréés, afin d’assurer une transparence dans la gestion des contenus. Un mécanisme de notification électronique pour signaler les contenus illicites est également instauré, facilitant ainsi le traitement rapide des signalements.

Quelles sont les obligations spécifiques des plateformes en ligne ?

Les plateformes en ligne doivent respecter plusieurs obligations spécifiques, qui varient en fonction de leur taille et de leur nature. Parmi ces obligations, on trouve la mise en place d’un système interne de traitement des réclamations, un mécanisme de notification de contenus illicites accessible, et la désignation de « signaleurs de confiance » pour traiter les notifications en priorité. De plus, les plateformes doivent fournir des rapports annuels sur leurs activités de modération, informer les utilisateurs des politiques de publicité, et établir un point de contact unique pour faciliter la communication avec les utilisateurs. Ces mesures visent à renforcer la transparence et la responsabilité des plateformes.

Quelles sanctions sont prévues en cas de non-respect des obligations ?

En cas de non-respect des obligations établies par le règlement, les plateformes peuvent faire face à des sanctions financières significatives. Les amendes peuvent atteindre jusqu’à 6 % du chiffre d’affaires mondial annuel de la plateforme pour des violations graves. Des infractions telles que la fourniture d’informations inexactes ou incomplètes peuvent entraîner des amendes de 1 %. De plus, une astreinte de 5 % des revenus journaliers moyens peut être appliquée à partir de la date spécifiée dans la décision de sanction. Ces mesures visent à garantir la conformité et à dissuader les violations des règles établies.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Chat Icon