Digital Services Act e as Grandes Plataformas Digitais

Legislação

No passado mês, a Comissão divulgou a proposta do Digital Services Act que visa regular o mercado digital, em particular as obrigações a que as plataformas online estão adstritas, com vista a salvaguardar os direitos dos consumidores num panorama virtual. Embora já aqui tenha sido dada uma visão global da proposta apresentada, neste post dar-se-á particular atenção às obrigações que as grandes plataformas digitais – como a Google e a Facebook – terão de cumprir, nos termos desta proposta, caso venha a entrar em vigor nos termos em que se encontra.

As grandes plataformas digitais estão sujeitas a duas categorias de obrigações, derivadas da sua dupla caracterização enquanto, por um lado, plataformas digitais (arts. 17.º a 24.º) e, por outro, plataformas digitais de grandes dimensões (arts. 25.º a 33.º).

Começando então pela primeira, estas são fundamentalmente oito, que se poderão dividir em três categorias: sistemas de queixa e resolução de conflitos (arts. 17.º, 18.º e 19.º); proteção contra utilização ilícita da plataforma (arts. 20.º, 21.º e 22.º) e deveres de informação (arts. 23.º e 24.º).

Relativamente à primeira categoria, as plataformas digitais deverão facultar aos seus utilizadores um sistema de queixa interno e gratuito relativo a decisões tomadas pela plataforma, no que concerne a (i) remoção de acesso à informação, (ii) suspensão ou cessação da prestação do serviço ou (iii) suspensão ou eliminação da conta (art. 17.º/1). A resposta a estas queixas deverá ser dada num prazo razoável, informando os utilizadores dos meios alternativos de resolução de litígios que este tem ao seu dispor (arts. 17.º/4 e 18.º). Por último, a Comissão prevê também a figura dos trusted flaggers, determinando que as plataformas digitais deverão dar-lhes prioridade no que toca à denúncia de conteúdos ilícitos (art. 19.º). A caracterização como trusted flagger será feita pelo Coordenador de Serviços Digitais[1] de cada Estado-Membro após comprovação de que a entidade em causa tem capacidade e conhecimentos necessários para identificar e notificar conteúdos ilícitos, que representa interesses coletivos de forma independente a qualquer plataforma e que executa as suas atividades de forma expedita e objetiva (art. 19.º/2).

Passando à segunda categoria de deveres, as plataformas digitais deverão garantir que não são utilizadas para fins ilícitos devendo, em particular, suspender a prestação dos seus serviços aos utilizadores que frequentemente forneçam conteúdo dessa índole (art. 20.º/1). Do mesmo modo, no contexto do sistema de queixa previamente mencionado, as plataformas deverão suspender a sua utilização por quem submeta queixas manifestamente infundadas de uma forma frequente (art. 20.º/2). Para além disso, caso tomem conhecimento de informações que possam levantar suspeitas sobre o cometimento de ilícitos criminais graves que envolvam ameaças à vida ou segurança de pessoas, as plataformas deverão comunicar esses  mesmos factos às autoridades competentes no Estado-Membro em causa (art. 21.º).

Além dos deveres de suspensão e de queixa, e caso as plataformas digitais permitam a celebração de contratos de consumo à distância, deverão também garantir a segurança dos contactos estabelecidos, recolhendo previamente informações referentes ao vendedor. Em concreto, deverão obter o nome, a morada e os contactos telefónico e eletrónico deste, bem como as suas informações bancárias caso se trate de uma pessoa singular, além de outras informações mencionadas no art. 22.º/1. Ademais, deverão adotar os esforços razoáveis para se certificarem que os dados obtidos são fidedignos e, caso constatem alguma incompletude ou erroneidade, deverão contactar o vendedor no sentido de recolher os elementos em falta (art. 22.º/2 e 3).

Passando à última categoria de deveres, vemos que as obrigações de apresentação de relatórios[2] são particularmente exigentes para as plataformas digitais. Assim, estas ficam sujeitas ao previsto no art. 23.º, tendo que mencionar (i) o número de situações que foram submetidas a meios de resolução alternativa de litígios, bem como o desfecho e duração média dos mesmos; (ii) o número de suspensões executadas ao abrigo do art. 20.º, especificando-se aquelas que são devidas à divulgação de conteúdo manifestamente ilegal e aquelas que se devem à utilização dos mecanismos de queixa de forma manifestamente infundada e (iii) qualquer utilização de meios automáticos de moderação de conteúdos (art. 23.º/1). Ademais, e pelo menos semestralmente, deverão reportar o número médio mensal de utilizadores em cada Estado-Membro (art. 23.º/2).

Por último, também em termos de marketing as plataformas digitais deverão garantir que os utilizadores conseguem identificar, para cada anúncio exposto, (i) que a informação divulgada é um anúncio publicitário, (i) a pessoa individual ou coletiva responsável pelo anúncio e (iii) os principais parâmetros utilizados para determinar os destinatários do mesmo (art. 24.º).

Além do exposto, conforme a dimensão da plataforma, esta pode ser considerada como uma grande plataforma digital e, por isso, ficar sujeita a deveres mais exigentes, nos termos da Secção 4 da proposta do Digital Services Act. Para o ser, terá de cumprir as condições previstas no artigo 25.º, ou seja, e em termos simplificados, ter uma média de, pelo menos, 45 milhões de utilizadores na União Europeia por mês. Nesse caso, além dos deveres anteriores, ficam sujeitas a mais oito, que se reconduzem a deveres de segurança e controlo (arts. 26.º a 28.º e 32.º), por um lado, e deveres de informação e de acesso (arts. 29.º a 31.º e 33.º), por outro.

Começando pelos primeiros, as grandes plataformas digitais ficam sujeitas a realizar avaliações dos riscos sistémicos derivados do seu funcionamento, pelo menos uma vez por ano. Aí, deverão avaliar a disseminação de conteúdos ilícitos através dos serviços prestados, efeitos negativos no que concerne ao direito ao respeito pela vida privada e familiar, liberdade de expressão e informação, à proibição de discriminação e aos direitos das crianças, bem como a manipulação intencional do serviço com efeitos negativos previsíveis para a saúde pública, menores, processos eleitorais e segurança pública (artigo 26.º). Feita essa análise, deverão estas plataformas implementar as medidas de segurança que considerem adequadas, proporcionais e eficazes de modo a mitigar os riscos identificados (art. 27.º).

Além disso, estas plataformas digitais deverão, no mínimo anualmente e a encargo próprio, realizar auditorias de modo a verificar o cumprimento das regras previstas no Regulamento (art. 28.º/1), do qual deverá resultar um relatório com recomendações a serem adotadas pela plataforma (art. 28.º/3 e 4). Como último dever dentro desta categoria, deverão ser nomeados um ou mais responsáveis pela monitorização do cumprimento do previsto no Digital Services Act (art. 32.º). Estes devem ter as qualificações, o conhecimento e a experiência adequados às suas tarefas (explicitadas no art. 32.º/3), tarefas essas que deverão ser exercidas de forma independente (art. 32.º/2 e 4).

No que toca aos deveres de informação e acesso, vemos que, caso as plataformas digitais de grandes dimensões utilizem sistemas de recomendação (“recommender systems[3]), deverão mencionar, de uma forma clara, acessível e de fácil compreensão, os parâmetros usados nesses sistemas, bem como as possibilidades fornecidas aos utilizadores de influenciar esses mesmos parâmetros (art. 29.º). Ademais, os deveres a que estão adstritos no contexto de publicidade são mais intensos, nomeadamente em termos de armazenamento de dados relativos aos anúncios expostos até um ano após serem divulgados pela última vez (art. 30.º/1). Nesse contexto, deverão armazenar, pelo menos, o conteúdo do anúncio, a pessoa (singular ou coletiva) em nome de quem esse anúncio foi exposto, o período durante o qual foi exposto, se estava destinado a um ou mais grupos específicos de utilizadores e, em caso afirmativo, quais os parâmetros usados para o efeito e, por último, o número total de utilizadores que viram o anúncio (art. 30.º/2).

Estas plataformas deverão garantir ao Coordenador de Serviços Digitais o acesso aos dados armazenados, nomeadamente para verificar o cumprimento do regulamento (art. 31.º/1). Por último, também a obrigação de apresentação de relatórios regulada no art. 23.º se torna mais exigente no caso das grandes plataformas digitais, por força do art. 33.º. Aqui, deverão estas publicar um relatório de seis em seis meses, a partir do momento em que são consideradas grandes plataformas digitais, tendo em conta a análise de riscos verificada na égide do art. 26.º, as medidas de mitigação desses mesmos riscos, de acordo com o art. 27.º, e o relatório da auditoria e da sua implementação, prevista no art. 28.º.

Assim, vemos que a Comissão teve em conta em especial as grandes plataformas digitais aquando da apresentação da proposta do Digital Services Act. Cabe-nos agora aguardar por futuros desenvolvimentos junto das instituições europeias.

 

[1] De acordo com a proposta apresentada, estes Coordenadores serão as entidades nacionais responsáveis por garantir uma correta aplicação do regulamento – ver art. 38.º.

[2] A regra geral de apresentação de relatórios encontra-se consagrada no art. 13.º do regulamento, tendo aplicação geral aos intermediários que a proposta do Digital Services Act visa regular. Não obstante, e relativamente às plataformas digitais, vemos que estes seus deveres são mais exigentes, por aplicação cumulativa do art. 23.º.

[3] De acordo com o art. 2.º, o), recommender systems são sistemas automáticos ou parcialmente automáticos utilizados por plataformas digitais no sentido de sugerir informação específica aos utilizadores da mesma, nomeadamente como resultado de uma pesquisa iniciada por este ou através da determinação da ordem pela qual a informação é exposta.

Leave a Reply

Your email address will not be published. Required fields are marked *