PL das Fake News: versão que vai a plenário não cita entidade autônoma de supervisão

O relator do Projeto de Lei das Fake News (PL 2630/2020), deputado Orlando Silva (PCdoB-SP) retirou a previsão de criação de uma “entidade autônoma de supervisão” às plataformas digitais do parecer oficialmente apresentado ao Plenário da Câmara dos Deputados, na noite desta quinta-feira, 28. Tal instituição seria a responsável por abrir procedimentos de apuração da conduta das empresas, além de ditar parâmetros de moderação de conteúdo e aplicar sanções em caso de descumprimento.
No final da tarde de quinta o parlamentar já havia afirmado nas redes sociais que concluiu o relatório para o PL, no entanto, “resta um tema: qual instituição fiscalizará a lei e, eventualmente, aplicará sanções”. Novas alterações ainda podem ser submetidas ao texto em Plenário.
A versão final manteve as atribuições do Comitê Gestor da Internet no Brasil (CGI.br) para definir diretrizes a serem seguidas pelas plataformas digitais na elaboração de um código de conduta, além de estabelecer critérios para a instauração de protocolos de segurança – procedimento de monitoramento frente a conteúdos que violem direitos fundamentais.
A falta de definição de uma entidade supervisora é um dos pontos criticados por especialistas em direito digital, assim como outro trecho ficado de fora, que autorizava a Justiça Eleitoral a definir regulamento durante período de campanha com prazos mais curtos para o cumprimento das decisões.
Veja a seguir outras alterações feitas no relatório publicado para deliberação:
A quem a lei se destina
Os provedores de aplicação sob demanda foram inseridos no rol de plataformas submetidas ao PL. O texto final também mantém as aplicações configuradas como “rede social, ferramentas de busca e mensageria instantânea”, desde que “constituídos na forma de pessoa jurídica, ofereçam serviços ao público brasileiro e exerçam atividade de forma organizada, com número médio de usuários mensais no país superior a dez milhões”.
A quem a lei não se destina
Entre as aplicações nas quais a lei não gera efeitos, a versão apresentada em plenário repete exceções incluídas ainda nesta semana ao substitutivo, que são: “busca e disponibilização de dados obtidos do poder público” e “plataformas de jogos e apostas online”.
Além delas, também são exceções, já previstas anteriormente, as plataformas destinadas a:
- comércio eletrônico;
- realização de reuniões fechadas por vídeo ou voz;
- enciclopédias online sem fins lucrativos;
- repositórios científicos e educativos e
- desenvolvimento e compartilhamento de software de código aberto.
Objetivos
Nova versão cita que um dos objetivos da lei é “o exercício do direito do usuário à notificação, ao contraditório, ampla defesa e devido processo em relação à moderação de conteúdos”.
Já o texto anterior assegurava a notificação, o contraditório e a ampla defesa ao “devido processo em relação a procedimentos adotados pelo provedor, decorrentes da legislação, de determinações da entidade autônoma de supervisão, de códigos de conduta ou de termos de uso, incluindo os casos de moderação de conteúdos ou contas”.
Dever de cuidado
No texto anterior, as plataformas estavam obrigadas a combater a disseminação de conteúdos que configurassem ou incitassem determinadas “práticas ilícitas”. A nova versão manteve apenas o verbo “configurar”.
As “práticas ilícitas” em questão são as seguintes:
- crimes contra o Estado Democrático de Direito;
- atos de terrorismo e preparatórios de terrorismo;
- crime de induzimento, instigação ou auxílio a suicídio ou a automutilação;
- crimes previstos no Estatuto da Criança e do Adolescente; e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes;
- crime de racismo;
- violência contra a mulher e
- infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional.
Responsabilização
Novo teto diz que as plataformas “podem ser responsabilizadas civilmente, de forma solidária:
pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma”; e “por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento das obrigações de dever de cuidado”.
A responsabilização se dá a partir do chamado “protocolo de segurança”, um procedimento administrativo a ser aberto pelo prazo de até 30 dias quando: configurado risco iminente de danos à dimensão coletiva de direitos fundamentais; nos casos previstos do dever de cuidados; ou no descumprimento das obrigações de avaliação de risco sistêmico.
“Quanto aos riscos sistêmicos, estes incluem a difusão de conteúdos ilegais, efeitos negativos reais ou previsíveis no exercício dos direitos fundamentais, no discurso cívico e nos processos eleitorais, bem como na segurança pública e também potenciais efeitos negativos em relação à violência contra a mulher, à proteção da saúde pública e aos menores, e as consequências negativas graves para o bem-estar físico e mental da pessoa”, consta no relatório.
O texto anterior atribuía a competência de abrir protocolos de segurança à entidade autônoma de supervisão. Na versão que vai a plenário, não há a atribuição específica.
O post PL das Fake News: versão que vai a plenário não cita entidade autônoma de supervisão apareceu primeiro em TeleSíntese.