Compartilhe

O que muda após STF ampliar obrigações das redes por conteúdos

Por G1    Sexta-Feira, 27 de Junho de 2025


O Supremo Tribunal Federal (STF) estabeleceu, nesta quinta-feira (26), a tese que define como será a aplicação da responsabilidade das redes sociais por postagens de seus usuários.

Ou seja, fixou em que situações as plataformas digitais podem ser acionadas, na Justiça, por conta de conteúdos ilícitos de terceiros.

A decisão foi tomada na décima segunda sessão da Corte sobre o tema. Com isso, foi concluído o julgamento de dois recursos extraordinários que discutiam a possibilidade de punição a estas plataformas.

Veja abaixo perguntas e respostas sobre a decisão do STF:

 

O que o Supremo analisou?

 

A questão envolve a chamada responsabilidade civil, ou seja, a possibilidade de que alguém seja acionado e condenado na Justiça por danos causados por uma ação ou omissão, sua ou de outra pessoa. Se isso ficar configurado, a Justiça pode condenar a pessoa ao pagamento, por exemplo, de indenizações.

A Corte julgou dois recursos que discutem o alcance da responsabilidade civil de plataformas digitais por conteúdos de seus usuários. O tema está previsto no artigo 19 do Marco Civil da Internet.

A lei, que entrou em vigor em 2014, funciona como uma espécie de Constituição para o uso da rede no Brasil - estabelece princípios, garantias, direitos e deveres para usuários e empresas.

O artigo 19 prevê que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.

Ou seja, da forma como está na lei, a responsabilidade das plataformas só era aplicável depois de uma ordem da Justiça não cumprida.

 

O que o STF decidiu sobre o artigo 19?

 

Por maioria de votos, o tribunal concluiu que as plataformas digitais são responsáveis por conteúdos gerados por seus usuários.

O artigo 19 do Marco Civil da Internet foi considerado parcialmente inconstitucional. Isso significa que ele não foi totalmente invalidado - permanece aplicável na legislação em algumas situações específicas, fixadas pela Corte.

Nos crimes contra a honra (injúria, calúnia e difamação), por exemplo, ainda será necessária uma ordem judicial para retirar o conteúdo do ar. Mas, mesmo nestes casos, foi mantida a possibilidade de remoção por notificação extrajudicial (aquela em que a vítima ou o advogado dela acionam diretamente a plataforma).

Em casos de crimes, atos ilícitos e contas inautênticas (criadas por robôs, por exemplo), a regra será a aplicação da regra do artigo 21 do Marco Civil da Internet. Este trecho da lei permite que uma notificação privada - feita diretamente pela vítima ou seu representante à plataforma - já determine que o conteúdo seja retirado do ar. Ou seja, na prática, em circunstâncias como esta, não será preciso necessariamente ir à Justiça para combater o dano.

 

Os provedores de internet vão ter que trabalhar de forma ativa para combater conteúdos ilícitos?

 

Sim. Pela decisão, os provedores já são considerados responsáveis se não agirem para retirar do ar conteúdos ilícitos quando veiculados por:

▶️ anúncios e impulsionamentos pagos;

▶️ redes artificiais de distribuição (chatbots ou robôs);

Nesses casos, as empresas respondem mesmo que não tenham sido notificadas de que está no ar material ilegal. Eles só serão isentos caso comprovem que atuaram de forma diligente e em tempo razoável para tornar a postagem indisponível.

 

Quais são os deveres das redes quanto à circulação em massa de conteúdos crimes graves?

 

Há responsabilidade das redes sociais quando elas não bloqueiam imediatamente conteúdos que configurem crimes graves. São eles:

▶️ atos antidemocráticos - crimes como golpe de Estado, abolição violenta do Estado Democrático de Direito, interrupção do processo eleitoral, violência política, sabotagem;

▶️ terrorismo, inclusive seus atos preparatórios;

▶️ crimes de induzimento, instigação ou auxílio a suicídio ou a automutilação;

▶️ incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero (condutas homofóbicas e transfóbicas);

▶️ crimes contra a mulher, inclusive conteúdos que propagam ódio ou aversão às mulheres;

▶️ crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes;

▶️ tráfico de pessoas.

Nesse ponto, a possibilidade de que as "big techs" respondam vai surgir quando ficar configurada a chamada "falha sistêmica". Ela ocorre quando o provedor deixa de tomar as medidas de prevenção ou remoção das postagens. Na prática, é quando fica evidenciado que não foi cumprido o dever de atuar de forma responsável, transparente e cautelosa.

Ainda neste ponto, o fato de existir um conteúdo ilícito isolado não é suficiente, por si só, para aplicação da responsabilidade. Mas, nesta situação, uma notificação privada já permite que a postagem seja derrubada. O autor pode pedir na Justiça para que o post seja restabelecido, demonstrando que não há ilicitude.

 

Para quais serviços o regime de responsabilização do artigo 19 ainda é aplicável?

 

O artigo 19 do Marco Civil da internet - que exige decisão judicial para a remoção de conteúdos considerados ilícitos, ainda vale para as seguintes plataformas:

▶️ provedor de email;

▶️ aplicativos para reuniões fechadas de vídeo ou voz;

▶️ serviços de mensagens instantâneas;

 

Qual regra se usa no caso dos chamados marketplaces, sites de vendas de produtos na internet?

 

Para estas plataformas, a responsabilidade civil seguirá as regras do Código de Defesa do Consumidor.

 

Quais deveres o Supremo estabeleceu para as plataformas digitais?

 

As redes sociais devem estabelecer suas regras para tratar de temas como a forma de recebimento de notificações e o processamento delas - e elas devem ser revisadas periodicamente. Além disso, devem elaborar relatórios de transparência sobre as notificações privadas que receberam, anúncios e impulsionamentos.

Os usuários e não usuários também deverão contar com canais eletrônicos de atendimento que sejam acessíveis, para apresentarem suas notificações diretas.

As plataformas também devem ter sede e representante no Brasil, com informações para contato acessíveis. Esta pessoa deve ter poderes para responder a processos administrativos e judiciais e prestar informações às autoridades, quando demandadas.

 

O que a Corte disse quanto à possibilidade de nova legislação?

 

A tese fixada pelo tribunal vai valer enquanto não houver nova lei sobre o tema. O Supremo também fez um apelo ao Congresso para "que seja elaborada legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais".

« Voltar

ECONOMIA

Aumento do etanol nos combustíveis deve gerar mais empregos na Paraíba, projeta Sindalcool-PB

GOLPE

Advogada paraibana vira ré no STF por envolvimento nos atos golpistas de 8 de janeiro

Veja também...

COPA DO MUNDO

Zagueiro Mozer faz convocação especial para torcida do Flamengo em Patos

BELEZA RARA

Patoenses são surpreendidos com arco-íris na manhã desta sexta

DEVOCIONAL

Entretenimento se tornou principal inimigo da relação do cristão com Deus