Marco Civil na berlinda: Google e Meta alertam para impacto em plataformas
Nesta quarta-feira (27), advogados do Google e da Meta ocuparam a tribuna do Supremo Tribunal Federal (STF) em defesa do artigo 19 do Marco Civil da Internet, peça-chave da legislação brasileira que regulamenta a atuação de plataformas digitais. A norma estabelece que as empresas de tecnologia só podem ser responsabilizadas civilmente pelo conteúdo de usuários se descumprirem uma ordem judicial.
Em um plenário dividido, o STF começou a analisar dois casos com repercussão geral que podem moldar o equilíbrio entre liberdade de expressão e controle sobre conteúdos digitais. A discussão gira em torno da validade do artigo 19 e a possível exigência de que as plataformas respondam por notificações extrajudiciais.
Leia também: STF julga hoje responsabilidade das redes sociais por publicações de usuários
O argumento da liberdade
José Rollemberg Leite Neto, advogado da Meta, argumentou que flexibilizar o artigo pode abrir caminho para uma “censura massiva”, prejudicando o debate público. Segundo ele, em 2022, a empresa removeu 208 milhões de postagens ilícitas globalmente sem a necessidade de decisão judicial, em um esforço para combater conteúdos como pedofilia e discursos de ódio.
“Flexibilizar o artigo 19 pode criar uma insegurança jurídica perigosa. O conceito de fake news, por exemplo, é amplo demais e pode levar ao excesso de remoções”, afirmou Rollemberg, em resposta ao presidente do STF, Luís Roberto Barroso. Ele também ressaltou que 98% das remoções de perfis falsos no Facebook são feitas automaticamente após denúncias de usuários.
A defesa do Google
Eduardo Bastos Furtado de Mendonça, representando o Google, rebateu críticas sobre uma suposta “inércia” das plataformas. Citou que, em 2023, o YouTube removeu 1,6 milhão de vídeos no Brasil por violar políticas internas, enquanto apenas 614 casos chegaram ao Judiciário.
Mendonça chamou atenção para o fato de que modelos de responsabilidade objetiva, que obrigam plataformas a monitorar conteúdos globalmente, não são adotados por democracias consolidadas. Ele destacou a legislação europeia, como a alemã, que só responsabiliza empresas em situações específicas e após falhas comprovadas no atendimento a notificações.
“Não se pode esperar que algoritmos interpretem subjetividades como desinformação ou crimes contra a honra. O risco de erro é enorme”, argumentou, citando ainda o artigo 21 do Marco Civil, que já prevê remoções imediatas em casos como divulgação de nudez não consentida.
Um julgamento com impacto global
Além dos recursos analisados, o STF deve decidir, em breve, sobre a possibilidade de bloqueio de aplicativos por decisões judiciais, tema abordado na Ação de Descumprimento de Preceito Fundamental (ADPF) 403, relatada por Edson Fachin. As deliberações em curso não se limitam às fronteiras do Brasil, pois podem influenciar debates internacionais sobre regulação de plataformas.
O pano de fundo
A decisão do STF ocorre em um momento em que o Brasil se destaca no cenário global por tentar equilibrar inovação tecnológica com a proteção de direitos fundamentais. Para as big techs, o desafio é evitar que novas interpretações da lei as transformem em árbitros do que pode ou não ser publicado online.
Os próximos capítulos prometem intensificar as tensões entre liberdade de expressão e a necessidade de moderação em um espaço virtual cada vez mais polarizado.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!