Na última sessão plenária do Supremo Tribunal Federal (STF), o ministro Gilmar Mendes justificou seu voto a favor de mudanças no artigo 19 do Marco Civil da Internet. A alteração prevê que as plataformas digitais também sejam responsabilizadas pelas publicações de seus usuários. Mendes sugeriu que o Brasil adote modelos de autorregulação já utilizados na Alemanha e na União Europeia, como a Lei de Fiscalização da Rede (NetzDG) e o Digital Services Act (DSA), respectivamente.
Entretanto, essas leis, que visam controlar o discurso online, já enfrentaram críticas na Europa. A Human Rights Watch, por exemplo, alertou que a NetzDG, implementada na Alemanha em 2018, poderia se tornar um precedente perigoso para a censura online, forçando as empresas a agir como censores do governo. A lei impõe multas severas às plataformas que não removem conteúdos “claramente ilegais” em até 24 horas, o que levanta preocupações sobre a liberdade de expressão.
Continua depois da Publicidade
O modelo de regulação proposto pelo STF segue uma linha semelhante ao exigir que as plataformas sejam responsabilizadas civilmente por conteúdos publicados por terceiros. Essa medida, aprovada em 26 de junho, passou a ser criticada por especialistas como uma forma de censura indireta, pois as plataformas, temendo punições, poderiam remover conteúdos de forma excessiva e preventiva.
A regulamentação e seus impactos
Especialistas alertam que a autorregulação das plataformas tem implicações sérias para a liberdade de expressão. Advogados como André Marsiglia e Hugo Freitas apontam que a responsabilidade transferida às empresas pode resultar em censura, já que as plataformas, temendo sanções, removeriam conteúdo em excesso para evitar litígios. A crítica é de que a mudança no Marco Civil poderia, assim, ser vista como uma forma de o Estado “terceirizar” a censura para as empresas privadas.
O Digital Services Act (DSA) da União Europeia, adotado em 2022, já aponta para esse risco. Um estudo realizado em 2024 pela organização The Future of Free Speech mostrou que entre 87,5% e 99,7% do conteúdo removido pelas plataformas era legal, levantando questionamentos sobre o impacto da regulação na liberdade de expressão.
O dilema entre segurança e liberdade
Para especialistas como Jacob Mchangama, diretor do The Future of Free Speech, a moderação excessiva de conteúdos pode prejudicar a diversidade de opiniões, essencial para a democracia. No Brasil, a proposta de regulação das redes sociais também tem gerado críticas quanto ao papel do Judiciário no processo. Bianca Cobucci Rosière, defensora pública do Distrito Federal, ressalta que mudanças desse tipo deveriam passar pelo Congresso, com ampla participação da sociedade e de especialistas, ao invés de serem decididas por ministros não eleitos.
Além disso, a análise de especialistas aponta que a regulação precisa ser clara, especialmente no que diz respeito a termos vagos como “discurso de ódio” e “conteúdo antidemocrático”, o que pode levar a interpretações subjetivas e inseguras.
Censura ou necessidade de controle?
Embora a regulação das plataformas seja vista como necessária para combater crimes como terrorismo, tráfico de pessoas e discurso de ódio, muitos questionam o excesso de controle sobre o conteúdo digital. A decisão do STF sobre a responsabilidade das plataformas para moderar conteúdo, mesmo sem ordem judicial, levanta dúvidas sobre a linha tênue entre segurança e censura. Com isso, a proposta de regulação das redes sociais no Brasil continua sendo um tema polêmico, com implicações profundas sobre o futuro da liberdade de expressão no país.
Regras criticadas em sua origem
O Brasil segue se alinhando às regulamentações europeias, mas as semelhanças com as críticas que essas leis enfrentam levantam um debate essencial sobre os limites entre o controle da informação e a proteção das liberdades individuais. A discussão sobre a regulação das redes sociais, agora nas mãos do Judiciário, desafia os fundamentos da democracia e exige um debate amplo e transparente sobre seus reais impactos.