Justiça
Barroso abre divergência em julgamento sobre redes e Mendonça suspende a votação
O presidente da Corte sugeriu o que chamou de ‘dever de cuidado’ às big techs


O presidente do Supremo Tribunal Federal, Luís Roberto Barroso, propôs nesta quarta-feira 18 uma nova tese no julgamento que discute a responsabilidade das redes sociais por conteúdos publicados pelos usuários. Na sequência, porém, o ministro André Mendonça pediu vista — mais tempo para estudar os autos — e interrompeu a votação.
Não há data marcada para a retomada da análise. Conforme as regras da Corte, Mendonça tem até 90 dias para liberar o processo.
Barroso sugeriu o que chamou de “dever de cuidado” às plataformas e a manutenção da necessidade de ordem judicial para a retirada de conteúdos nocivos, sob o argumento de garantir a liberdade de expressão.
Na prática, o que está em discussão no julgamento é o modelo de responsabilização das big techs pelo conteúdo de terceiros. Isto é: se e em quais circunstâncias as redes podem ser penalizadas por conteúdos ilegais publicados por seus usuários.
O voto de Barroso representa uma divergência com a corrente estabelecida até agora com os votos dos ministros Dias Toffoli e Luiz Fux, relatores de duas ações analisadas em conjunto. Ambos declaram a inconstitucionalidade do artigo 19 do Marco Civil da Internet e determinam a remoção de conteúdos considerados ilícitos mesmo sem decisão judicial (relembre abaixo).
“Considero que o artigo 19 é apenas parcialmente inconstitucional. Pois é legítimo que em muitas situações a remoção de conteúdos somente deva se dar após ordem judicial. Portanto, eu não eliminaria do ordenamento jurídico o artigo 19″, afirmou o presidente do STF ao elencar divergências com os votos dos colegas.
O Marco, que entrou em vigor em 2014, funciona como uma espécie de Constituição para o uso da rede no Brasil – estabelece princípios, garantias, direitos e deveres para usuários e empresas. O trecho questionado pelos magistrados define que as big techs só podem ser condenadas por postagens de usuários caso descumpram ordens judiciais para removê-las.
A lei aguardava julgamento há sete anos. Os processos entraram e saíram da pauta três vezes. Na última, foram adiados depois de pedido da Câmara dos Deputados, devido à previsão de votação do PL das Fake News, enterrado em abril após a pressão das plataformas e de parlamentares bolsonaristas.
Pelo regimento do tribunal, Barroso — por ser o presidente — seria o último a votar. Mas o pedido de vista apresentado por ele na semana passada permitiu que lesse seu voto antes de Flávio Dino, o próximo da fila.
Em sua manifestação, Barroso também disse entender que as plataformas não têm responsabilidade objetiva pelo conteúdo de terceiros, mas subjetiva. Ou seja, seria preciso haver a comprovação de dolo ou culpa.
O ministro ainda defendeu a necessidade de regulação das redes sociais. “É preciso regular as plataformas digitais, do ponto de vista econômico, para tributação justa, para impedir dominação de mercado, para a proteção dos direitos autorais. E do ponto de vista da proteção da privacidade. É imperativa a disciplina da utilização desses dados.”
Além disso, recomendou que plataformas com mais de 10 milhões de usuários no Brasil sejam obrigadas a publicar relatórios anuais de impacto, seguindo os mesmos padrões estabelecidos pelo Digital Services Act, da União Europeia. A medida, afirmou Barroso, visa garantir maior transparência e monitoramento das ações no ambiente digital.
Esses relatórios detalhariam as ações das redes sociais para prevenir e mitigar riscos sistêmicos, como conteúdos que promovam pedofilia, discurso de ódio, violência ou desinformação, e seriam acessíveis ao público para monitoramento.
Barroso comparou a proposta de adoção dos relatórios anuais no padrão europeu ao modelo regulatório já utilizado pela Anvisa em outras áreas. Ele citou a Resolução Colegiada nº 741/2022, que permite à agência aproveitar análises realizadas por autoridades regulatórias estrangeiras confiáveis para otimizar a aprovação de medicamentos e produtos médicos no Brasil.
Para o ministro, essa abordagem, conhecida como “reliance regulatório”, é eficiente em países com recursos escassos, como o Brasil, e pode ser aplicada à regulação das plataformas digitais. Ele ainda sugeriu a criação de um órgão independente para monitorar e sancionar comportamentos inadequados das plataformas.
“Eu prefiro um órgão independente, algo mais próximo do comitê gestor da internet, com representantes do governo, empresas, sociedade civil e Congresso, para monitorar a rede e recomendar comportamentos.”
O magistrado ainda citou a importância do Legislativo na regulação das plataformas digitais, destacando que a definição de critérios e a criação de um órgão regulador são atribuições dos parlamentares. “Respeitamos o Congresso e as dificuldades de consenso nessa matéria, mas estamos estabelecendo um regime jurídico provisório, porque ainda não há lei“.
Barroso também diferenciou o dever de cuidado da responsabilidade objetiva. Segundo ele, as plataformas não devem ser punidas automaticamente por conteúdo nocivo que eventualmente passe por seus sistemas, mas devem demonstrar esforço genuíno e eficaz para mitigar riscos.
Ou seja: se uma plataforma evita 99% dos casos de pedofilia e um conteúdo nocivo escapa, não há responsabilização imediata. No entanto, se 50% dos casos passam, isso caracteriza falha no cumprimento do dever de cuidado, justificando sanções.
Voto de Luiz Fux
No caso concreto, Fux é relator de um recurso movido pelo Google que questionava se um provedor de serviços se torna responsável ao armazenar ofensas produzidas por usuários e se deve fiscalizar material previamente.
O caso tem relação com o antigo Orkut. Uma professora de ensino médio pediu a exclusão de uma comunidade chamada “Eu odeio a Aliandra”, criada em 2009 – antes do Marco – para veicular conteúdo ofensivo. A empresa negou o pedido, mas a Justiça entendeu que ela deveria ser responsabilizada pela não exclusão.
O Google, contudo, tem alegado que a remoção da comunidade antes da aprovação do Marco violaria a liberdade de expressão dos usuários.
Para Fux, a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, a partir do momento em que há notificação da plataforma. O magistrado ainda fez referência a uma necessidade de responsabilização das plataformas diante de conteúdos publicados em seus meios.
“Resta clara a insuficiência inconstitucional do regime de responsabilidade insculpido no artigo 19 do Marco Civil. A imunidade civil trazida pelo dispositivo só permite responsabilização das empresas provedoras no caso de descumprimento de ordem judicial de remoção”, declarou.
Ele também apontou para uma incompatibilidade da ausência de responsabilidade e direitos fundamentais. “Não é possível um regime de responsabilidade civil que exonere amplamente as empresas de atuarem no limite de suas possibilidades para a preservação de direitos fundamentais lesados em razão de conteúdos publicados em suas plataformas.”
Para o ministro, diante de publicações “obviamente ofensivas”, a empresa tem “o dever de indisponibilizar o conteúdo na referida comunidade”. Fux ressaltou a ausência de responsabilidade das plataformas e a insuficiência do regime vigente: “A calibração adequada de interesses supostamente conflitantes depende de imposição de obrigações aos intermediários”.
Fux foi outro integrante do STF a criticar a chamada tese da autorregulação das redes sociais. Segundo ele, as empresas de tecnologia também têm interesses políticos e financeiros, não havendo razão para supor que eles serão colocados em segundo plano em prol do interesse público.
A proposta apresentada pelo magistrado é que as plataformas sejam obrigadas a remover imediatamente publicações questionadas pelos usuários e, se discordarem da necessidade de exclusão, devem acionar a Justiça para obter autorização para disponibilizar novamente o conteúdo.
Outra medida sugerida envolve a criação de canais “eficientes, funcionais e sigilosos” para usuários denunciarem publicações que ofendam a honra, a imagem e a privacidade de terceiros, como injúria, calúnia e difamação. Para Fux, se as publicações ilícitas forem impulsionadas mediante pagamento, as plataformas têm obrigação de removê-las sem notificação.
“Conteúdos lesivos de direitos fundamentais, tais como fake news, discurso de ódio ou mesmo difamatórios, podem gerar engajamento substancialmente maior do que conteúdos lícitos e verdadeiros”, alertou o ministro.
Voto de Dias Toffoli
Primeiro a votar, o ministro é relator do recurso movido pelo Facebook que tenta reverter uma decisão que condenou a empresa ao pagamento de indenização por ter mantido no ar um perfil falso responsável por divulgar contéudos ofensivos.
Ele defendeu a derrubada do artigo 19 do Marco por considerá-lo “incapaz de oferecer proteção efetiva aos direitos fundamentais e resguardar os princípios e valores constitucionais fundamentais” no ambiente virtual.
Também sustentou que, em caso de conteúdos ofensivos ou ilícitos, as plataformas devem agir quando notificadas de forma extrajudicial — ou seja, já pela vítima ou por seu advogado. Se não removerem os conteúdos ofensivos, argumentou Toffoli, ficarão sujeitas à responsabilidade objetiva de responder pelos danos, independente de culpa.
Pelos termos do voto, estas seriam as situações em que as big techs deveriam agir sem necessidade de notificação judicial:
- crimes contra o Estado Democrático de Direito;
- atos de terrorismo ou preparatórios de terrorismo;
- crime de induzimento, instigação ou auxílio a suicídio ou à automutilação;
- crime de racismo;
- violência contra a mulher, a criança, o adolescente e as pessoas vulneráveis;
- qualquer espécie de violência contra a mulher;
- tráfico de pessoas;
- incitação ou ameaça da prática de atos de violência física ou sexual;
- divulgação de fatos notoriamente inverídicos ou gravemente descontextualizados que levem à incitação à violência física, à ameaça contra a vida ou a atos de violência contra grupos ou membros de grupos socialmente vulneráveis;
- divulgação de fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.
O novo modelo de responsabilização das redes proposto pelo ministro baseia-se no que diz o artigo 21 do Marco, chamado por Toffoli de “sistema de notificação e análise”. Se as mudanças forem aprovadas pelo plenário do STF, caberá às plataformas analisar as publicações questionadas e verificar se devem ser removidas.
Elas serão punidas se mantiverem no ar postagens criminosas, mas também se removerem indevidamente conteúdos regulares.
“Do lucro nasce o encargo”, afirmou o magistrado. “As atividades de recomendação, impulsionamento e moderação de conteúdo são intrínsecas ao modelo de negócio adotado por muitos provedores e, sendo esse o caso, como os provedores lucram com isso, devem arcar com os riscos e prejuízos a que deram causa.”
O relator ainda rebateu a tese de que as big techs não possuem ingerência sobre o conteúdo dos usuários. Para Toffoli, muitas plataformas, provedores e redes sociais impulsionam conteúdos nocivos, influenciando o fluxo de informações nos seus ecossistemas.
“Os conteúdos continuam sendo de terceiros, porque na origem foram confeccionados e/ou publicados por esses, mas ao recomendá-los ou impulsioná-los a um número indefinido de usuários o provedor acaba se tornando corresponsável pela sua difusão”, sustentou. Ele ainda fez uma distinção entre as diferentes plataformas, segundo as atividades exercidas.
Ficariam isentos da responsabilização, por exemplo, provedores de e-mail, plataformas de reuniões fechadas por videoconferência e plataformas e blogs jornalísticos. Os aplicativos de mensagens não responderiam por conversas privadas, mas poderiam ser responsabilizados por conteúdos publicados em grupos públicos e canais abertos.
As plataformas de comércio eletrônico, chamadas de marketplace, também serão afetadas pelo novo sistema, caso ele seja aprovado pela maioria do STF. Elas podem ser punidas se permitirem o anúncio de produtos de venda proibida ou sem certificação e homologação por órgãos competentes, como as TV Box, proibidas pela Anatel.
Apoie o jornalismo que chama as coisas pelo nome
Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.
O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.
Estamos aqui, há 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.
Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.
Leia também

STF condena mais 58 golpistas do 8 de Janeiro
Por CartaCapital
Como kid preto indiciado por trama golpista tenta ‘deixar’ o STF e ir à Justiça Militar
Por CartaCapital