O Supremo Tribunal Federal (STF) decidiu nesta semana que as plataformas digitais passam a ter responsabilidade por conteúdos ilegais publicados por seus usuários, mesmo sem ordem judicial prévia, em casos de crimes graves. A decisão, que altera o entendimento do Artigo 19 do Marco Civil da Internet, foi aprovada por 8 votos a 3 e representa uma mudança significativa na forma como as redes sociais operam no Brasil.
Na prática, as big techs deverão agir de forma proativa para identificar e remover conteúdos considerados ilícitos, como incitação ao terrorismo, discursos de ódio, crimes contra a democracia, pornografia infantil e outras violações graves. Caso as empresas apresentem falhas sistêmicas na identificação e retirada desse tipo de material, poderão ser responsabilizadas civilmente por danos causados a terceiros.
“Foi uma decisão histórica, que busca proteger direitos fundamentais e a democracia”, destacou o relator do caso, ministro Dias Toffoli, que se emocionou ao ler a tese aprovada durante a sessão. O presidente do STF, ministro Luís Roberto Barroso, enfatizou que a Corte não está legislando, mas apenas decidindo sobre casos concretos que chegaram ao tribunal.
Anúncios pagos também entram na mira
Outro ponto relevante é que as plataformas passam a ser responsabilizadas por prejuízos causados por anúncios pagos considerados fraudulentos ou ilícitos, mesmo aqueles impulsionados por compra de publicidade, salvo se comprovarem ter tomado medidas rápidas e eficazes para remover o conteúdo após serem notificadas.
Crimes contra a honra ainda dependem de decisão judicial
Apesar da mudança, conteúdos relacionados a calúnia, difamação e injúria continuam dependendo de decisão judicial para remoção, mantendo o equilíbrio com a liberdade de expressão em casos individuais.
Decisão vale até o Congresso legislar
A decisão do STF tem validade até que o Congresso Nacional aprove uma legislação específica sobre o tema, como o chamado PL das Fake News, parado no parlamento desde 2020 em meio à resistência de grandes plataformas digitais.
Especialistas avaliam que a decisão aproxima o Brasil de modelos europeus de responsabilização, obrigando as redes a criarem sistemas de detecção mais eficientes e rápidos. “As plataformas precisarão melhorar seus mecanismos de moderação de conteúdo, sob pena de sofrerem responsabilizações judiciais, multas e ações de reparação de danos”, explica o professor Francisco Brito Cruz, do IDP.
O que muda na prática:
✅ Plataformas devem remover conteúdos graves de forma proativa;
✅ Falhas sistêmicas geram responsabilização civil;
✅ Anúncios pagos fraudulentos geram responsabilidade;
✅ Crimes contra a honra seguem exigindo decisão judicial;
✅ Decisão vale a partir de agora, sem efeito retroativo.
A decisão do STF marca um novo capítulo no debate entre liberdade de expressão, proteção de direitos fundamentais e moderação de conteúdos em redes sociais no Brasil, criando novas obrigações para as plataformas e ampliando instrumentos de proteção para os cidadãos diante de conteúdos criminosos na internet.