Conteúdo ilegal pode ser removido das redes sociais com uma simples notificação
Esta é a nova interpretação do artigo 19 do Marco Civil da Internet, que foi mudada a partir de um julgamento recente do STF: big techs estão ainda obrigadas a adotar políticas de prevenção contra a prática de crimes na internet.

As big techs e outras plataformas de internet, incluindo as redes sociais, estão obrigadas a remover conteúdos claramente ilícitos ou ilegais, ou que incentivem ou enalteçam a prática de crimes. E basta apenas uma notificação extrajudicial para que esta ordem seja cumprida. Esta é a nova interpretação do artigo 19 do Marco Civil da Internet, definida desde junho deste ano pelo Supremo Tribunal Federal (STF). Por maioria, o plenário da corte declarou que a exigência de notificação judicial para que as big techs e as redes sociais removam esses conteúdos, como estava previsto anteriormente pelo artigo, é parcialmente inconstitucional e insuficiente para a proteção da democracia e dos direitos fundamentais.
A decisão do Supremo veio no rastro de várias denúncias e ações judiciais que questionavam postagens e conteúdos relacionados a injúrias, crimes de ódio e incitação a outros tipos de delitos. Por outro lado, as próprias big techs e grupos políticos alinhados a elas faziam uma grande campanha de desinformação, acusando o governo brasileiro e o Judiciário de impor uma suposta “censura” aos cidadãos, além de alegar “falta de segurança jurídica” para questionar ou não cumprir as regras determinadas pela legislação brasileira.
“A gente tem que lembrar o que eu sempre digo em sala de aula: não existe direito absoluto. E a nossa liberdade tem que ser pensada em comunidade. Se eu atingir o outro, cometer um crime, não importa se está no mundo virtual. É crime. Tem que haver uma regulação estatal e uma responsabilização nesses casos. Por mais que a plataforma venha a trazer esses ‘riscos de censura e insegurança’, essa decisão do Supremo é muito clara, que a responsabilização não vai aqui restringir o debate que seja legítimo. Nós podemos nos manifestar, o direito à informação está lá está garantido… mas temos que proteger os direitos fundamentais de todos quando visivelmente há um ato ilícito ou um crime”, argumenta a professora Clara Cardoso Machado, do curso de Direito da Universidade Tiradentes (Unit).
O fundamento da exigência de ações judiciais para responsabilização das plataformas de internet, previsto na interpretação anterior do Artigo 19, era para assegurar a liberdade de expressão e para impedir a censura. Isso dava margem para que as redes e plataformas mantivessem no ar conteúdos e comentários que violassem a lei ou os direitos de outras pessoas, sem exercer nenhum tipo de moderação, mesmo com notificações extrajudiciais enviadas por advogados.
Agora, com a nova interpretação do STF, os pedidos administrativos encaminhados às plataformas, através das notificações extrajudiciais, já são o suficiente para obrigar a remoção ou moderação de conteúdos claramente ilegais como racismo, homofobia, instigação ao suicídio e á mutilação, terrorismo, abolição do Estado Democrático de Direito, discursos de ódio e perfis falsos, entre outros crimes. Em caso de descumprimento, as empresas podem ser punidas com sanções administrativas (advertência, multa de até 10% do faturamento no Brasil, suspensão do provedor) e responsabilidade civil com pagamento de indenizações por não removerem conteúdos criminosos, especialmente após notificação extrajudicial.
“Todas essas situações podem gerar o pedido administrativo e a plataforma tem que remover administrativamente, ou seja, não precisa da ordem judicial. O STF trouxe algumas exceções, por exemplo, crimes contra honra, injúria, calúnia e difamação. Nesse caso específico, como envolve realmente um direito de resposta, uma análise, aí a plataforma não tem a obrigatoriedade de fazer a retirada. Então, isso dependerá de ordem judicial”, destacou a professora Agtta Christie Vasconcellos, também do curso de Direito da Unit.
As professoras explicam que o novo entendimento do STF se baseia no princípio do dever geral de cuidado, isto é, a obrigação das plataformas em evitar que os crimes aconteçam. “Os provedores vão ser responsabilizados se eles não retirarem esses conteúdos que configuram essas práticas de crime. A plataforma hoje tem que estruturar um canal de denúncia, manter, por exemplo, representantes legais aqui no Brasil, publicar relatórios de transparência… Isso já deveria acontecer, mas ficou mais explícito. E se for casos de conteúdo patrocinado, aí ela vai ter que ter um controle ainda maior, porque se você patrocina, presume-se a responsabilidade da plataforma, já que aquele conteúdo está gerando monetização e a plataforma está ganhando com aquele conteúdo. Então, nesses casos, se for algum conteúdo ofensivo, ela responderá também”, frisa Clara.
Crianças nas redes
A obrigação de remoção ficou ainda mais explícita com uma segunda lei: o chamado Estatuto Digital da Criança e do Adolescente (ECA Digital). Ele estabelece regras para proteção e prevenção de crimes contra crianças e adolescentes em ambientes digitais, incluindo mais obrigações para fornecedores e mais ferramentas de controle de acesso por parte de pais e responsáveis. E foi aprovado pelo Congresso Nacional em setembro deste ano, no rastro da repercussão causada pelo vídeo do youtuber Felipe Bressan, o Felca, que denunciou publicamente a produção e divulgação de vídeos de influenciadores com conteúdo erótico ou sexual envolvendo crianças e adolescentes.
Agtta Vasconcelos avalia que o “Caso Felca”, como o episódio ficou conhecido, impulsionou uma discussão que já existia há pelo menos três anos, em relação à proteção das crianças e adolescentes em ambiente digital. “É uma discussão relevante e havia uma pressão por maior regulação das redes sociais. A gente tem que proteger as crianças e adolescentes, e a Constituição é muito clara: é dever do Estado, da sociedade e da família. Não é uma responsabilidade que é apenas da família, mas sim de todos nós. A ideia aqui é que a gente lembre que nós temos deveres e em relação às crianças e adolescentes isso fica ainda muito mais claro”, exorta.