Position du Groupe PPE sur la loi sur les services numériques (DSA)

20.01.2021

Position du Groupe PPE sur la loi sur les services numériques (DSA)

Remarque importante
Ce document a été traduit automatiquement
Afficher la version originale
Loi sur les services numériques (LSN)

(A) Harmoniser les règles existantes sur le retrait des contenus illicites : maintenir le concept général qui sous-tend les articles 13 et 14 de la directive sur le commerce électronique ainsi que les procédures actuelles de notification et d'action (notification et notification, notification et retrait, notification et suspension) en tant qu'exigence de base pour toutes les plateformes fournissant des services dans le marché unique numérique européen. Il convient d'harmoniser autant que possible ces règles à travers l'Europe et de se concentrer sur des définitions claires et des procédures efficaces. Toutefois, l'ASN devrait également aller plus loin : des mesures proactives proportionnelles (par exemple, des outils automatisés, des politiques de récidive, l'utilisation d'indicateurs de confiance, des soumissions de notifications groupées, la gestion de l'identité) sont nécessaires pour les plateformes lorsque le contenu illégal devient systémique, lorsque le caractère illégal du contenu a déjà été établi (soit par un avis motivé, soit par une décision judiciaire) ou lorsque le type de contenu et sa nature illégale sont tels que la contextualisation n'est pas nécessaire. Le déploiement de telles mesures devrait toutefois s'accompagner de garanties appropriées afin de s'assurer que les pratiques de modération de contenu sont proportionnées. En particulier, dans les cas d'incitation au terrorisme, de discours haineux illégaux, de matériel pédopornographique ou de violation des droits de propriété intellectuelle, nous avons besoin d'une approche forte et coordonnée à l'échelle de l'UE pour garantir que les fournisseurs de services prennent des mesures efficaces pour retirer les contenus illégaux de leurs services et s'assurer que ces contenus restent inaccessibles après avoir été retirés.

(B) Contenu préjudiciable : les obligations légales de retrait ne devraient concerner que le contenu illégal, c'est-à-dire tout contenu non conforme au droit de l'Union ou au droit d'un État membre. Malgré cela, les contenus légaux mais préjudiciables, tels que la désinformation sur les causes de COVID-19 ou sur les moyens d'y remédier, restent un problème grave. Les contenus préjudiciables méritent donc une approche (co-)réglementaire ciblée en dehors de la DSA afin de séparer clairement les procédures de lutte contre les contenus préjudiciables et illégaux.

(C) Législation horizontale : pour un maximum de clarté et de cohésion, l'AVD devrait être un cadre horizontal complété par la législation sectorielle existante et future, telle que la lex specialis (comme les droits d'auteur, TCO, AVMSD, GDPR, etc.). Le législateur doit éviter la collision des dispositions et rationaliser les définitions dans l'ASD et les législations sectorielles spécifiques respectives, en reconnaissant non seulement les principes généraux dans les dispositions horizontales, mais aussi l'effet des exigences spécifiques dans la législation sœur, évitant ainsi toute conséquence involontaire.

(D) Égalité des conditions de concurrence : reconnaît qu'il n'y a rien d'illégal ou d'anticoncurrentiel à construire une entreprise prospère, ce qui est le cas de nombreuses grandes plateformes. Il estime toutefois qu'il est nécessaire de différencier davantage les plateformes (dans la mesure où cela est juridiquement possible), car certaines d'entre elles ont acquis un pouvoir de marché excessif au cours des dernières décennies et en abusent. Elles ne devraient donc pas être soumises aux mêmes règles que les petits fournisseurs. Lorsqu'il est démontré que le bien-être des consommateurs est érodé et que l'innovation est étouffée par les "plateformes gardiennes" et lorsqu'il est démontré qu'il existe un potentiel de concurrence accrue sur les marchés numériques, que ces marchés ne sont pas contestables et que l'innovation est étouffée par les grandes plateformes, des mesures proportionnées seront alors nécessaires. Outre l'objectif de protéger les start-ups et les PME européennes, nous devons prendre en compte - entre autres - la taille ou l'étendue de la portée des plateformes, car cela influence leur capacité à mettre en œuvre des mesures proactives contre les contenus illégaux en ligne.

(E) Plates-formes actives/passives : revoir la classification des comportements "actifs" ou "passifs" en intégrant les derniers arrêts de la CJCE et en rationalisant l'ASD avec la directive sur le droit d'auteur. L'ASD devrait également examiner si ces types de plateformes, comme l'hébergement ou la mise en cache, sont toujours pertinents étant donné que le rôle joué par les plateformes aujourd'hui est devenu beaucoup plus complexe. L'ASD devrait examiner l'objectif du type de plateforme et fournir des définitions, des rôles et des responsabilités appropriés dans ce contexte.

(F) Champ d'application : étendre le champ d'application territorial de l'ASN afin de couvrir également les activités des entreprises et des prestataires de services établis dans des pays tiers, pour autant qu'ils offrent leurs services également dans le marché unique numérique. Obliger ces fournisseurs de pays tiers à désigner un représentant légal pour les intérêts des consommateurs dans l'UE, sur le modèle du GDPR. Si une plateforme importe des produits dans l'UE, elle doit toujours respecter la législation européenne en matière de sécurité des produits, de protection de l'environnement et des consommateurs, d'étiquetage ou de propriété intellectuelle, conformément à notre "mode de vie européen". Pour permettre aux entreprises européennes d'être plus compétitives, d'innover et de se développer, il est essentiel de ne pas les accabler d'une administration et d'une réglementation disproportionnées. C'est particulièrement important pour les PME qui ont de petites marges et qui ont déjà été très affectées par la mise en œuvre du GDPR.

(G) Surveillance générale : préserver l'interdiction d'imposer une obligation de surveillance générale (article 15 de la directive sur le commerce électronique). En combinaison avec de nouvelles mesures de transparence obligatoires, les plateformes devraient toutefois être autorisées et même encouragées à utiliser des outils automatisés pour détecter volontairement des contenus manifestement illégaux (par exemple, en clarifiant juridiquement que les plateformes ne sont pas responsables si elles déploient des mesures automatisées). L'ASD pourrait étudier la possibilité d'une exonération de responsabilité pour les plateformes en ce qui concerne leur activité dans le domaine de la lutte contre les contenus illicites (en tenant également compte du principe du bon samaritain en vigueur aux États-Unis).

(H) Surveillance : viser une harmonisation européenne complète des obligations légales en matière de procédures, de garanties procédurales, de modération et de transparence, y compris des responsabilités juridiques claires et une application transfrontalière efficace de ces responsabilités au niveau de l'UE. Étant donné que tous les États membres ne sont pas équipés de manière adéquate - à la fois en termes d'outils et d'expertise - pour faire respecter toutes les obligations, la Commission européenne doit jouer un rôle important dans la supervision, la coordination et le soutien des organismes nationaux chargés de l'application afin de garantir qu'aucune charge disproportionnée ne pèse sur l'organisme de réglementation d'un seul État membre ou d'un petit nombre d'États membres. Le Groupe PPE ne préconise pas la création d'une nouvelle agence si cette harmonisation peut être réalisée par le biais d'un réseau d'organismes nationaux chargés de l'application de la législation, similaire au Réseau européen de la concurrence (REC). Les obligations de transparence doivent inclure l'utilisation et les codes sources sous-jacents des processus algorithmiques qui traitent le contenu. Le respect de ces exigences supplémentaires en matière de transparence et d'explicabilité ne sera pas contrôlé par des entreprises privées, mais relèvera de la compétence des autorités de surveillance du marché.

(I) Publicité ciblée : la publicité ciblée est réglementée par le GDPR/ePrivacy/P2B. Certaines limitations supplémentaires dans l'ASD peuvent être envisagées lorsque le contexte est préjudiciable à notre démocratie et qu'il n'est pas encore couvert par d'autres législations. considère que, en tant que principe général, la publicité ciblée peut avoir un impact économique et sociétal positif et souligne le fait que la législation existante doit être pleinement et correctement appliquée pour garantir le respect de la vie privée des utilisateurs. Une interdiction de la publicité ciblée n'est pas soutenue par le Groupe PPE.

(J) Responsabilité des plateformes/médias/utilisateurs : utiliser les technologies modernes pour identifier plus efficacement comment et par qui le contenu illégal a été publié, rationalisant ainsi la responsabilité de la plateforme. Le Groupe du PPE soutient fermement le droit à l'anonymat sur Internet (tel qu'il est reconnu par le GDPR) mais rejette en même temps l'idée de ne pas être identifiable en ligne (= ce qui est illégal hors ligne, est illégal en ligne). Pour s'assurer que, tout en maintenant l'anonymat, chacun est numériquement identifiable lorsque cela est nécessaire, une identité numérique européenne protégée devrait être créée, en utilisant, par exemple, la technologie de la chaîne de blocs. Le niveau de responsabilité des plateformes devrait être adapté à l'identifiabilité des utilisateurs. La responsabilité des plateformes pour le contenu des médias qu'elles hébergent doit être réduite lorsque le média (et donc son contenu) est déjà réglementé par les États membres. En guise de compromis, le Groupe PPE pourrait accepter que la DSA ou un autre texte législatif à venir, tel que la mise à jour eIDAS, rende obligatoire un système d'identité numérique européen pour certaines plateformes (par exemple, la vente de biens physiques, les services de gouvernance en ligne).

(K) Ordre judiciaire : établir une procédure claire et efficace de collaboration avec les services répressifs et les autorités judiciaires, en veillant à ce que les contenus illégaux ne soient pas seulement retirés, mais aussi suivis par les services répressifs, et à ce que les responsabilités des plateformes soient associées à des mesures d'exécution efficaces.

(L) Obligations de déclaration publique : exiger des plateformes et des autorités nationales compétentes qu'elles rendent compte de leur action et viser ainsi une analyse structurée du retrait et du blocage des contenus illicites au niveau de l'UE. Ces obligations devraient être proportionnées et modérées pour les PME et les jeunes entreprises, tout en excluant les microentreprises.

(M) Obligations de transparence : exiger des intermédiaires numériques (dans les relations interentreprises uniquement), y compris les bureaux d'enregistrement de noms de domaine, les fournisseurs d'hébergement web, les places de marché et les annonceurs en ligne, qu'ils mettent en place des systèmes efficaces de vérification de l'identité de leurs clients ("Know Your Business Customer Verification"). En outre, les plateformes devraient être transparentes en ce qui concerne la politique qu'elles adoptent à l'égard des contrefacteurs récidivistes.

Autres contenus