Plenário tenta um consenso sobre forma de responsabilizar empresas; há diferentes propostas em análise. Julagamento sobre responsabilidade das redes; Moraes lê seu voto
Reprodução
O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), votou nesta quinta-feira (12) a favor da responsabilização das redes sociais pelo conteúdo publicado por seus usuários.
Já foi formada maioria no sentido de que as plataformas devem responder pelas postagens de terceiros, mas os ministros ainda trabalham no detalhamento da tese, ou seja, do resumo que vai orientar a aplicação da decisão.
Durante o voto, Moraes leu uma série de postagens com falas racistas, antissemitas, e homofóbicas. “Somente mentes omissas não lutam para retirar isso das redes sociais. Isso não é liberdade de expressão, isso é crime”, afirmou.
Ele também citou a convocação para depredação das Praças dos Três Poderes, em 8 de janeiro de 2023, e os atos antidemocráticos. “Festa da Selma, como extremistas organizaram golpe pelas redes sociais. E as redes sociais viram isso se multiplicando, e continuaram”.
Em seguida, ele mostrou imagens das invasões. “Destruíam, pediam intervenção militar e postavam ao mesmo tempo, e as redes sociais não mostraram nenhuma autorregulação. A falência da autorregulação das redes sociais, que faz com que nós tenhamos que julgar isso nessas sessões”.
📲O que está sendo julgado? Os ministros julgam dois recursos que discutem a possibilidade de que redes sociais sejam acionadas por conta de danos criados pelos conteúdos de usuários publicados nestas plataformas, mesmo sem terem recebido antes uma ordem judicial para a retirada das postagens irregulares.
Ou seja: a questão é saber se estes aplicativos podem ser condenados ao pagamento de indenização por danos morais por não terem retirado do ar postagens ofensivas, com discursos de ódio, fake news ou prejudiciais a terceiros, mesmo sem uma ordem prévia da Justiça neste sentido.
Veja abaixo:
STF forma maioria para responsabilizar plataformas por conteúdos de usuários
Votaram para responsabilizar os provedores de internet os ministros Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Moraes e o presidente Luís Roberto Barroso. O ministro André Mendonça divergiu.
Faltam votar: Edson Fachin, Nunes Marques e Cármen Lúcia.
Próximos passos
Nesta quinta-feira (13), Moraes apresentou seu voto. Na sequência, o julgamento foi suspenso, e será retomado com o voto do ministro Edson Fachin. Depois disso, os ministros pretendem se reunir para a organização das propostas.
Os magistrados também trabalham na busca de um consenso, já que os ministros propuseram diferentes soluções para o regime de responsabilização das empresas.
Após esta etapa, ministro Nunes Marques e a ministra Cármen Lúcia vão apresentar seus posicionamentos.
Marco Civil da Internet
Os casos envolvem a aplicação de um trecho do Marco Civil da Internet.
A lei, que entrou em vigor em 2014 funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas.
Em um de seus artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão envolve como as plataformas devem agir diante de conteúdos criados por usuários que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte elabora uma tese, a ser aplicada em processos sobre o mesmo tema nas instâncias inferiores da Justiça. Segundo dados do Conselho Nacional de Justiça, há 344 processos suspensos, aguardando um desfecho.
Marco Civil da Internet: julgamento no STF pode mudar regras sobre uso da internet no país
Votos dos ministros
Saiba como votaram os demais ministros até o momento:
Dias Toffoli
Relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo 19 do Marco Civil da Internet.
O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas.
Luiz Fux
Relator do outro processo sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.
Para Fux, serão considerados ilícitos os conteúdos que veiculem discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e a golpe de Estado.
O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
Luís Roberto Barroso
O presidente do STF propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso.
Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial.
Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.
André Mendonça
No voto apresentado na semana passada, Mendonça divergiu em parte dos demais ministros.
O ministro entendeu que o artigo 19 do Marco Civil da Internet é constitucional. Afirmou, no entanto, que é preciso interpretar o trecho de acordo com a Constituição para fixar alguns pontos.
Entre eles, que é inválida a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita; que as plataformas em geral têm o dever de promover a identificação do usuário violador do direito de terceiros; e que não é possível responsabilizar diretamente a rede social sem prévia decisão judicial quando há possíveis irregularidades que envolvam opiniões.
Flávio Dino
Sugeriu que a responsabilização dos provedores de internet, em regra, ocorrerá pelas normas do artigo 21 do Marco Civil da Internet.
Este trecho da lei prevê a possibilidade de responsabilidade quando a plataforma digital não toma providências de retirada de conteúdo após uma notificação extrajudicial feita pela vítima ou advogado.
Nos casos de crime contra a honra, será aplicado o sistema previsto no artigo 19 do Marco Civil da Internet, em que a responsabilidade só pode ocorrer se a rede social não retirou o conteúdo após ordem judicial específica.
Segundo ele, as plataformas têm o dever de evitar que se façam perfis falsos. Nesse ponto, aplica-se a responsabilidade do Código de Processo Civil, cabível independentemente de prévia notificação judicial ou extrajudicial. Isso também se aplica a perfis de robôs, anúncios pagos e impulsionados.
Se o provedor retirar conteúdo por dever de cuidado, o autor pode pedir a liberação na Justiça. Se a Justiça liberar a publicação, não será devida indenização do provedor ao usuário.
Cristiano Zanin
Considerou que o artigo 19 do Marco Civil da Internet é parcialmente inconstitucional”.
Ele propôs três critérios: no caso de conteúdo criminoso, a plataforma seria responsável por remover o conteúdo, sem a necessidade de decisão judicial.
Já a aplicação do artigo 19 seria mantida para provedores neutros (sem impulsionamento). Quando houvesse uma dúvida razoável sobre licitude do conteúdo (assim, não haveria responsabilização imediata se houver a dúvida sobre a legalidade do material).
Gilmar Mendes
Ao consolidar a maioria favorável à responsabilidade, o ministro propôs diferentes regimes de tratamento, a depender da situação em discussão.
Um deles, chamado de “geral”, prevê a aplicação do artigo 21 do Marco Civil da Internet – ou seja, a retirada de conteúdos pelas plataformas quando notificadas de forma privada.
O regime residual seria o do artigo 19 da mesma lei, com a exigência de ordem judicial para bloqueio de conteúdos para crimes contra a honra e conteúdos jornalísticos.
Haveria também um regime de presunção, em casos de anúncios e impulsionamento remunerado. Nestas situações, o entendimento é de que as empresas têm conhecimento do conteúdo ilícito e não será necessária a notificação prévia para a responsabilização.
E, ainda, um regime especial, em que provedores seriam responsáveis por não bloquearem conteúdos imediatamente, no caso de crimes graves e material com potencial de dano grave à democracia.
Postagem Original
Assine atualizações
Receba as últimas notícias criativas sobre arte, design e negócios.