Posición del Grupo PPE sobre la Ley de Servicios Digitales (DSA)

20.01.2021

Posición del Grupo PPE sobre la Ley de Servicios Digitales (DSA)

Aviso importante
Este documento ha sido traducido automáticamente.
Mostrar versión original
Ley de Servicios Digitales

(A) Armonizar las normas vigentes sobre retirada de contenidos ilícitos: mantener el concepto general que subyace al artículo 13/14 de la Directiva sobre comercio electrónico, así como los actuales procedimientos de notificación y acción (notificación y aviso, notificación y retirada, notificación y suspensión) como requisito básico para todas las plataformas que prestan servicios en el mercado único digital europeo. Hay que armonizar estas normas en toda Europa en la medida de lo posible y centrarse en definiciones claras y procedimientos eficaces. Sin embargo, la ASD también debería ir más allá: es necesario que las plataformas adopten medidas proactivas proporcionales (por ejemplo, herramientas automatizadas, políticas de reincidencia, uso de marcadores de confianza, envío masivo de notificaciones, gestión de identidades) cuando los contenidos ilícitos se conviertan en sistémicos, cuando ya se haya establecido el carácter ilícito de los contenidos (ya sea mediante una notificación fundamentada o una resolución judicial) o cuando el tipo de contenidos y su naturaleza ilícita sean tales que no sea necesaria la contextualización. No obstante, el despliegue de este tipo de medidas debe ir acompañado de las salvaguardias adecuadas para garantizar que las prácticas de moderación de contenidos sean proporcionadas. En particular, en los casos de incitación al terrorismo, incitación ilegal al odio o material de abuso sexual de menores, así como de infracción de los derechos de propiedad intelectual, necesitamos un planteamiento sólido y coordinado a escala de la UE para garantizar que los proveedores de servicios adopten medidas eficaces para retirar los contenidos ilícitos de sus servicios y garantizar que dichos contenidos sigan siendo inaccesibles una vez retirados.

(B) Contenidos nocivos: las obligaciones legales de retirada sólo deben afectar a los contenidos ilícitos, que son los que no cumplen la legislación de la Unión o de un Estado miembro. A pesar de ello, los contenidos legales pero nocivos, como la desinformación y la desinformación sobre las causas o los remedios de la COVID-19, siguen siendo un grave problema. Por lo tanto, los contenidos nocivos merecen un enfoque (co)regulador específico al margen de la DSA, con el fin de separar claramente los procedimientos de lucha contra los contenidos nocivos o ilegales.

(C) Legislación horizontal: en aras de la máxima claridad y cohesión, la DSA debe ser un marco horizontal que se complemente con la legislación sectorial específica existente y futura, como la lex specialis (como los derechos de autor, TCO, AVMSD, GDPR, etc.). El legislador evitará la colisión de disposiciones y racionalizará las definiciones en la DSA y las respectivas legislaciones sectoriales específicas, reconociendo no sólo los principios generales en las disposiciones horizontales, sino también el efecto de los requisitos específicos en la legislación hermana, evitando así cualquier consecuencia no deseada.

(D) Igualdad de condiciones: reconoce que no hay nada ilegal o anticompetitivo en crear un negocio de éxito, que es lo que son muchas grandes plataformas. No obstante, ve necesario diferenciar más entre plataformas (en la medida en que sea legalmente posible), ya que algunas de ellas han desarrollado un poder de mercado excesivo en las últimas décadas y están abusando de él. Por lo tanto, no deberían estar sujetas a las mismas normas que los pequeños proveedores. Cuando se demuestre que el bienestar de los consumidores se está viendo erosionado y que la innovación se está viendo ahogada por las "plataformas porteras" y cuando se demuestre que existe potencial para aumentar la competencia en los mercados digitales, que estos mercados no son contestables y que la innovación se está viendo ahogada por las grandes plataformas, entonces serán necesarias medidas proporcionadas. Además del objetivo de proteger a las nuevas empresas y a las PYME europeas, hay que tener en cuenta, entre otras cosas, el tamaño o la escala de alcance de las plataformas, ya que esto influye en su capacidad para aplicar medidas proactivas contra los contenidos ilegales en línea.

(E) Plataformas activas/pasivas: revisar la clasificación de comportamiento "activo" o "pasivo" incorporando las últimas sentencias del TJUE y racionalizando la ASD con la Directiva sobre derechos de autor. La ASD también debería considerar si estos tipos de plataformas, ya sean de alojamiento o de almacenamiento en caché, siguen siendo pertinentes, ya que el papel que desempeñan hoy en día las plataformas se ha vuelto mucho más complejo. La ASD debería examinar la finalidad del tipo de plataforma y proporcionar definiciones, funciones y responsabilidades adecuadas en ese contexto.

(F) Ámbito de aplicación: ampliar el ámbito de aplicación territorial de la ASD para cubrir también las actividades de empresas y proveedores de servicios establecidos en terceros países, siempre que ofrezcan sus servicios también en el Mercado Único Digital. Obligar a esos proveedores de terceros países a designar un representante legal para los intereses de los consumidores dentro de la UE, siguiendo el modelo del GDPR. Si una plataforma importa productos a la UE, siempre tiene que respetar la legislación de la UE sobre seguridad de los productos, protección del medio ambiente y de los consumidores, etiquetado o propiedad intelectual, todo ello de acuerdo con nuestro "modo de vida europeo". Para que las empresas europeas puedan competir, innovar y ampliar sus actividades es esencial que no les impongamos una carga administrativa y reglamentaria desproporcionada. Esto es especialmente importante para las pymes que tienen márgenes pequeños y que ya se vieron muy afectadas por la aplicación del RGPD.

(G) Supervisión general: mantener la prohibición de imponer una obligación de supervisión general (artículo 15 de la Directiva sobre comercio electrónico). No obstante, en combinación con nuevas medidas de transparencia obligatorias, debería permitirse e incluso animarse a las plataformas a utilizar herramientas automatizadas para detectar voluntariamente contenidos manifiestamente ilícitos (por ejemplo, aclarando jurídicamente que las plataformas no son responsables si despliegan medidas automatizadas). La ASD podría explorar la posibilidad de una exención de responsabilidad para las plataformas en relación con su actividad en el ámbito de la lucha contra los contenidos ilícitos (teniendo en cuenta también el principio del buen samaritano estadounidense).

(H) Supervisión: aspirar a una plena armonización europea de las obligaciones jurídicas en materia de procedimientos, garantías procesales, moderación y transparencia, incluidas unas responsabilidades jurídicas claras y una aplicación transfronteriza efectiva de dichas responsabilidades a escala de la UE. Dado que no todos los Estados miembros están adecuadamente equipados -tanto en términos de herramientas como de experiencia- para hacer cumplir todas las obligaciones, la Comisión Europea deberá desempeñar un papel importante en la supervisión, coordinación y apoyo a los organismos nacionales de aplicación, con el fin de garantizar que no recaiga una carga desproporcionada sobre el organismo regulador de uno, o un pequeño número, de Estados miembros. El Grupo PPE no aboga por una nueva agencia si esta armonización puede realizarse a través de una red de organismos nacionales de aplicación similar a la REC (Red Europea de Competencia). Las obligaciones de transparencia incluirán el uso y los códigos fuente subyacentes de los procesos algorítmicos que tratan los contenidos. El cumplimiento de estos requisitos adicionales de transparencia y explicabilidad no será auditado por empresas privadas, sino que será competencia de las autoridades de vigilancia del mercado.

(I) Publicidad dirigida: la publicidad dirigida estará regulada por el GDPR/ePrivacy/P2B. Se pueden considerar algunas limitaciones adicionales en la ASD cuando el contexto sea perjudicial para nuestra democracia y si aún no está cubierto por otra legislación. Considera que, como principio general, la publicidad dirigida puede tener un impacto económico y social positivo y señala que la legislación vigente debe aplicarse plena y adecuadamente para garantizar el respeto de la privacidad de los usuarios. El Grupo PPE no apoya la prohibición de la publicidad dirigida.

(J) Responsabilidad de las plataformas/medios/usuarios: utilizar la tecnología moderna para identificar, de forma más eficaz, cómo y quién ha publicado contenidos ilegales, racionalizando así la responsabilidad de la plataforma. El Grupo PPE apoya firmemente el derecho a ser anónimo en Internet (como reconoce el GDPR), pero al mismo tiempo rechaza la idea de no ser identificable en línea (= lo que es ilegal fuera de línea, es ilegal en línea). Para garantizar que, manteniendo el anonimato, todo el mundo sea identificable digitalmente cuando sea necesario, debería crearse una identidad digital europea protegida, utilizando, por ejemplo, la tecnología de cadena de bloques. El nivel de responsabilidad de las plataformas debe adaptarse a la identificabilidad de los usuarios. La responsabilidad de las plataformas por el contenido de los medios que alojan deberá reducirse cuando los medios (y por tanto también su contenido) ya estén regulados por los Estados miembros. Como solución de compromiso, el Grupo PPE podría aceptar que la DSA u otro acto legislativo próximo, como la actualización del eIDAS, que hace obligatorio un sistema de identidad digital europeo para algunas plataformas (por ejemplo, la venta de bienes físicos, los servicios de administración electrónica).

(K) Orden judicial: establecer un procedimiento claro y eficaz de colaboración con las autoridades policiales y judiciales, garantizando que los contenidos ilegales no sólo sean retirados, sino que también sean objeto de seguimiento por parte de las fuerzas del orden, y que las responsabilidades de las plataformas vayan acompañadas de medidas efectivas de aplicación de la ley.

(L) Obligaciones de información pública: exigir a las plataformas y a las autoridades nacionales competentes que informen de su actuación y aspirar así a un análisis estructurado de la retirada y el bloqueo de contenidos ilícitos a escala de la UE. Estas obligaciones deben ser proporcionadas y moderadas para las PYME y las empresas de nueva creación y, al mismo tiempo, excluir a las microempresas.

(M) Obligaciones de transparencia: exigir a los intermediarios digitales (únicamente en las relaciones entre empresas), incluidos los registradores de nombres de dominio, los proveedores de alojamiento web, los mercados y los anunciantes en línea, que pongan en marcha sistemas eficaces de "verificación de clientes para conocer su negocio". Además, las plataformas deben ser transparentes en cuanto a la política que adoptan con los infractores reincidentes.

Contenido relacionado