Justiça

Leia as teses propostas no julgamento do STF sobre as redes sociais

Oito ministros se pronunciaram. A maioria defende ampliar a responsabilização das big techs por conteúdos de usuários

Leia as teses propostas no julgamento do STF sobre as redes sociais
Leia as teses propostas no julgamento do STF sobre as redes sociais
Os ministros Luiz Fux, Alexandre de Moraes e André Mendonça em sessão plenária no STF. Foto: Antonio Augusto/STF
Apoie Siga-nos no

O Supremo Tribunal Federal tem 10 votos no julgamento sobre a constitucionalidade do artigo 19 do Marco Civil da Internet. As duas ações sob análise discutem a responsabilidade das redes sociais por conteúdos de terceiros e a possibilidade de remoção de material ofensivo a pedido dos ofendidos, sem a necessidade de ordem judicial.

O caso tem repercussão geral, ou seja, o que os ministros decidirem servirá de parâmetro para as instâncias inferiores em processos semelhantes.

A Corte já formou maioria de 8 votos a 2 para ampliar a responsabilização das redes, mas falta construir um consenso entre as diferentes teses apresentadas. Apenas os ministros André Mendonça e Edson Fachin votaram contra a responsabilização das plataformas.

O primeiro a votar foi o ministro Dias Toffoli, relator de um dos recursos. Para ele, o modelo atual dá imunidade às plataformas e é inconstitucional. Propõe que a responsabilização se baseie em outro dispositivo da lei, a prever a retirada do conteúdo mediante simples notificação.

Leia a tese proposta:

1 – É inconstitucional o art. 19, caput, e o § 1º do marco civil da internet, sendo inconstitucionais, por arrastamento, os demais parágrafos do art. 19.

2 – Como regra, o provedor de aplicações de internet será responsabilizado civilmente nos termos do art. 21, pelos danos decorrentes de conteúdos gerados por terceiros, inclusive na hipótese de danos à intimidade, à vida privada, à honra e à imagem, quando notificado pelo ofendido ou seu representante legal, preferencialmente pelos canais de atendimento, deixar de promover em prazo razoável as providências cabíveis, ressalvadas as disposições da legislação eleitoral e os atos normativos do Tribunal Superior Eleitoral.

3 – O provedor de aplicações de internet responde civilmente de forma objetiva, e independentemente de notificação pelos danos decorrentes de conteúdos gerados por terceiros, nas seguintes hipóteses:

  • quando recomendem ou impulsionem de forma remunerada, ou não, os conteúdos;
  • quando se tratar de conta inautêntica;
  • quando se tratar de direitos do autor e conexos; e
  • quando configurarem práticas previstas em rol taxativo.

4 – Os provedores que funcionarem como marketplaces respondem objetiva e solidariamente com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação, ou homologação pelos órgãos competentes.”

O segundo a votar — também pela inconstitucionalidade do artigo 19 — foi Luiz Fux, relator do segundo caso em votação. Sustentou que as empresas devem ser obrigadas a remover conteúdos ofensivos à honra, à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que foram notificadas.

Em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, segundo Fux, as plataformas devem realizar monitoramento ativo e retirar o conteúdo do ar imediatamente, sem necessidade de notificação.

Leia a tese do ministro:

1 – A disposição do art. 19 do marco civil da internet não exclui a possibilidade de responsabilização civil de provedores de aplicações de internet por conteúdos gerados por terceiros nos casos em que, tendo ciência inequívoca do cometimento de atos ilícitos, seja por quanto evidente, seja porque devidamente informados por qualquer meio idôneo, não procederem à remoção imediata do conteúdo.

2 – Considera-se evidentemente ilícito o conteúdo gerado por terceiro que veicule discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao golpe de Estado. Nestas hipóteses específicas há para as empresas provedoras um dever de monitoramento ativo com vistas à preservação eficiente do Estado Democrático de Direito.

3 – Nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras necessária à responsabilização civil dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados.

4 – É presumido de modo absoluto o efetivo conhecimento da ilicitude do conteúdo produzido por terceiros, por parte da empresa provedora de aplicações de internet, nos casos de postagens onerosamente impulsionadas”.

O presidente do STF, Luís Roberto Barroso, proferiu o terceiro voto e inaugurou uma nova corrente, em busca de uma espécie de meio-termo. Ele avalia que a regra do Marco Civil sobre responsabilização das plataformas por conteúdos de terceiros não garante proteção suficiente a direitos fundamentais e a valores relevantes para a democracia.

Segundo ele, as redes devem retirar do ar postagens cujo conteúdo envolva pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia.

Barroso considera, porém, haver situações, como nos crimes contra a honra, em que a remoção do conteúdo só deve ocorrer após ordem judicial. Assim, ainda que se alegue injúria, calúnia ou difamação, a postagem deve permanecer, sob pena de violação à liberdade de expressão.

Para o presidente do STF, as big techs devem ter o chamado dever de cuidado, ou seja, trabalhar para reduzir os riscos criados ou potencializados por suas plataformas.

Leia a tese de Barroso:

1 – O art. 19 é só parcialmente inconstitucional. A exigência de ordem judicial para remoção de conteúdo continua a valer, mas é insuficiente.

2 – Nos casos de crime, exceto de crimes contra a honra, notificação extrajudicial deve ser suficiente para a remoção de conteúdo. 

3 – Nos casos de crimes contra a honra e de ilícitos civis em geral, continua a se aplicar a exigência de ordem judicial para a remoção. 

4 – As empresas têm o dever de cuidado de evitar que determinados conteúdos cheguem ao espaço público, independentemente de ordem judicial ou de notificação privada: pornografia infantil e crimes graves contra crianças e adolescentes, induzimento, instigação ou auxílio a suicídio ou automutilação, tráfico de pessoas, atos de terrorismo, abolição violenta do Estado Democrático de Direito e golpe de Estado.

5 – Nos casos referidos no item IV acima, a responsabilização pressupõe uma falha sistêmica e não meramente a ausência de remoção de um conteúdo específico.

6 – Nos casos de anúncio ou impulsionamento pago, o conhecimento efetivo do conteúdo ilícito é presumido desde a aprovação da publicidade. Caso o provedor não adote providências em tempo razoável poderá ser responsabilizado ainda que não tenha havido notificação privada.”

O ministro André Mendonça foi o primeiro com um entendimento mais favorável às big techs: manter a responsabilização das plataformas somente após decisão judicial. O objetivo, de acordo com ele, é preservar a liberdade de expressão. “O cidadão, mais vigiado, mais ficará suscetível ao chamado efeito silenciador”, argumentou.

Mendonça afirmou também que remover perfis das rede sociais caracteriza um ato de censura prévia. “Para evitar nova manifestação que possa configurar um ilícito, tolhe-se a possibilidade de qualquer manifestação.”

Leia a tese:

1 – Serviços de mensageria privada não podem ser equiparados a mídia social. Em relação a tais aplicações de internet, prevalece a proteção a intimidade, vida privada, sigilo das comunicações e proteção de dados. Portanto, não há que se falar em dever de monitoramento ou autorregulação na espécie.

2 – É inconstitucional a remoção ou a suspensão de perfis de usuários, exceto quando [a] comprovadamente falsos — seja porque relacionados a pessoa que efetivamente existe, mas denuncia, com a devida comprovação, que não o utiliza ou não o criou; ou relacionados a pessoa que sequer existe fora do universo digital (o chamado ‘perfil robô’); ou [b] cujo objeto do perfil seja a prática de atividade em si criminosa.

3 – As plataformas em geral, tais como mecanismos de busca, marketplaces etc., têm o dever de promover a identificação do usuário violador de direito de terceiro. Observado o cumprimento da referida exigência, o particular diretamente responsável pela conduta ofensiva é quem deve ser efetivamente responsabilizado via ação judicial contra si promovida.

4 – Nos casos em que admitida a remoção de conteúdo sem ordem judicial (por expressa determinação legal ou conforme previsto nos Termos e Condições de Uso das plataformas), é preciso assegurar a observância de protocolos que assegurem um procedimento devido, capaz de garantir a possibilidade do usuário [a] ter acesso às motivações da decisão que ensejou a exclusão, [b] que essa exclusão seja feita preferencialmente por ser humano [uso excepcional de robôs e inteligência artificial no comando de exclusão]; [c] possa recorrer da decisão de moderação, [d] obtenha resposta tempestiva e adequada da plataforma, dentre outros aspectos inerentes aos princípios processuais fundamentais.

5 – Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiro, ainda que posteriormente qualificado como ofensivo pelo Poder Judiciário, aí incluídos os ilícitos relacionados à manifestação de opinião ou de pensamento.

6 – Há possibilidade de responsabilização, por conduta omissiva ou comissiva própria, pelo descumprimento dos deveres procedimentais que lhe são impostos pela legislação, aí incluída [a] a obrigação de aplicação isonômica, em relação a todos os usuários, das regras de conduta estabelecidas pelos seus Termos e Condições de Uso, os quais devem guardar conformidade com as disposições do Código de Defesa do Consumidor e com a legislação em geral; e [b] a adoção de mecanismos de segurança digital aptos a evitar que as plataformas sejam utilizadas para a prática de condutas ilícitas.

7 – Em observância ao devido processo legal, a decisão judicial que determinar a remoção de conteúdo [a] deve apresentar fundamentação específica e, [b] ainda que proferida em processo judicial sigiloso, deve ser acessível à plataforma responsável pelo seu cumprimento, facultada a possibilidade de impugnação.”

Flávio Dino apresentou uma tese de responsabilização proporcional das plataformas digitais, combinando deveres preventivos e limites à imunidade das big techs. A proposta se destaca por buscar uma posição intermediária entre os votos dos ministros Dias Toffoli, Luiz Fux e André Mendonça.

Dino admite que o regime do artigo 19 permaneça válido apenas nos casos de ofensas e crimes contra a honra, mas preveja a responsabilidade direta e sem notificação prévia em situações como perfis falsos, uso de robôs e impulsionamento de conteúdos ilícitos.

Leia a tese:

“1. O provedor de aplicações de internet poderá ser responsabilizado civilmente nos termos do art. 21 da Lei nº 12.965/2014 (Marco Civil da Internet), pelos danos decorrentes de conteúdos gerados por terceiros, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE. O regime do art. 19 da citada lei aplica-se exclusivamente a alegações de ofensas e crimes contra a honra. 

2. São considerados atos dos próprios provedores de aplicação de internet, podendo haver responsabilidade civil, independente de prévia notificação judicial ou extrajudicial, nos termos do art. 927, “caput”, do Código Civil:

A) Postagens de perfis com anonimização do usuário, vedada pelo art. 5°, IV, da Constituição Federal, que gere obstáculos à responsabilização, incluindo perfis falsos e chatbots (robôs); 

B) Ilicitudes veiculadas em anúncios pagos e postagens patrocinadas, ou mecanismos similares. 

3. Na hipótese de configuração de falha sistêmica, os provedores podem ser responsabilizados civilmente nos termos do art. 14, § 1º, II, do Código de Defesa do Consumidor, pelos conteúdos criados por terceiros nos seguintes casos, em rol taxativo:

A) Crimes contra crianças e adolescentes;

B) Crime de induzimento, instigação ou auxílio ao suicídio ou à automutilação previsto no art. 122 do Código Penal;

C) Crime de terrorismo, nos termos da Lei nº 13.260/2016;

D) Fazer apologia ou instigar violência, ou grave ameaça, visando à prática dos crimes contra o Estado Democrático de Direito devidamente tipificados em lei.

3.1. Para fins da responsabilidade civil prevista neste item, considera-se falha sistêmica, imputável ao provedor de aplicações de internet, deixar de adotar adequadas medidas de segurança contra os conteúdos ilícitos anteriormente listados, configurando violação aos deveres específicos de prevenção e precaução, assim como do dever de cuidado necessário aos provedores citados.

3.2 Consideram-se adequadas as medidas que, conforme o estado da técnica, forneçam os níveis mais elevados de segurança para o tipo de atividade desempenhada pelo provedor. 

3.3 A existência de conteúdo ilícito de forma atomizada e isolada não é, por si só, suficiente para configurar a responsabilidade civil de acordo com este item. Contudo, uma vez recebida notificação extrajudicial sobre a ilicitude, passará a incidir a regra estabelecida no artigo 21 da Lei nº 12.965/2014 (Marco Civil da Internet).

3.4 Em tais hipóteses, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.

4. Os provedores de aplicações de internet deverão editar autorregulação que abranja, necessariamente, um sistema de notificações, um devido processo e relatórios anuais de transparência em relação a notificações extrajudiciais, anúncios e impulsionamento.

4.1 Tais regras deverão ser publicadas e revisadas periodicamente, de forma transparente e acessível ao público.

4.2 As obrigações mencionadas neste item 4 serão monitoradas pela Procuradoria Geral da República, até que sobrevenha lei específica regulando a autorregulação dos provedores de aplicação de internet”.

O ministro Cristiano Zanin também votou pela responsabilização das plataformas digitais por conteúdos publicados por seus usuários. Ele considerou que o artigo 19 do Marco Civil da Internet não oferece proteção suficiente aos direitos fundamentais e, por isso, deve ser considerado parcialmente inconstitucional.

“Há uma proteção deficiente quando se exige, em todos os casos, uma decisão judicial para a retirada de material que possa ser flagrantemente criminoso ou violador de direitos”, afirmou o ministro.

Leia a tese:

“1. O art. 19 da Lei nº 12.965/2014 (Marco Civil da Internet), que exige ordem judicial específica para a responsabilização civil de provedor de aplicações de internet por danos decorrentes de conteúdo gerado por terceiros, é parcialmente inconstitucional. Há um estado de omissão parcial que decorre do fato de que a regra geral do art. 19 não confere proteção suficiente a bens jurídicos constitucionais de alta relevância (proteção de direitos fundamentais e da democracia).

2. Enquanto não sobrevier legislação, em interpretação conforme à Constituição, a responsabilização civil de provedores de aplicações de internet deve se sujeitar ao seguinte regime, ressalvadas as disposições específicas da legislação eleitoral e os atos normativos expedidos pelo TSE:

2.1 O regime de decisão judicial e retirada do art. 19 do Marco Civil da Internet aplica-se (i) aos provedores de aplicação intermediários de conteúdo gerado por terceiros considerados neutros; (ii) e, aos provedores de aplicação ativos, apenas nos casos de publicação, pelo usuário, de conteúdo não manifestamente criminoso.

2.2. O regime de notificação extrajudicial e retirada, do art. 21 do MCI, deve ser estendido aos provedores de aplicação intermediários que atuam ativamente na promoção e disseminação de conteúdo e, após serem notificados, deixam de remover conteúdo manifestamente criminoso. Considera-se observado o dever de cuidado quando, após a notificação, o provedor de aplicação executa mecanismos efetivos de prevenção e controle para checar a veracidade das alegações e mitigar danos. Caso se trate de conteúdo de ilicitude duvidosa ou que dependa de juízos de valor para aferir a sua ilicitude, considera-se cumprido o dever de cuidado se, adotados tais mecanismos, o provedor é capaz de demonstrar que não há evidente caráter ilícito do conteúdo e que deverá prevalecer, então, a livre manifestação do pensamento. Quando houver elementos objetivos que demonstrem que o conteúdo é ilícito, surge para os provedores de aplicação o dever de agir para excluí-lo. Esse dever abrange a publicação de conteúdos comprovadamente fraudulentos, como perfis falsos ou invasões de contas.

2.3. No caso de anúncios e impulsionamentos, presume-se o conhecimento do ilícito desde a aprovação da publicidade pela plataforma, sendo possível a responsabilização independente de notificação, salvo quando a plataforma comprove que atuou diligentemente e em tempo razoável para indisponibilizar o conteúdo. Também haverá presunção relativa de conhecimento, a ensejar a responsabilização civil, nos casos de danos provocados por chatbots (robôs).

3. A responsabilidade civil nesses regimes ésubjetiva. Em todo caso, os provedores não poderão ser responsabilizados civilmente quando houver dúvida razoável sobre a ilicitude dos conteúdos.

4. Estão excluídos do âmbito de aplicação do regime específico previsto nos arts. 18 a 21 do Marco Civil da Internet os provedores de aplicação intermediários de fornecimento de produtos e serviços (Marketplaces e assemelhados).

5. Os provedores de aplicações de internet deverão manter um sistema de notificações, definir um devido processo e publicar relatórios anuais de transparência em relação a notificações extrajudiciais e anúncios e impulsionamento, além de promover ações de educação digital. 

6. Além disso, os provedores de aplicações de internet estão submetidos a um dever de cuidado de que decorre a obrigação de prevenir e mitigar riscos sistêmicos criados ou potencializados por suas atividades, a ser cumprido por meio de mecanismos fidedignos de avaliação do conteúdo que conjuguem atos humanos e agentes de inteligência artificial. As plataformas devem atuar proativamente para que estejam livres dos seguintes conteúdos extraordinariamente nocivos:

(i) pornografia infantil e crimes graves contra vulneráveis;

(ii) induzimento, instigação ou auxílio a suicídio ou a automutilação;

(iii) tráfico de pessoas;

(iv) atos de terrorismo;

(v) abolição violenta do Estado Democrático de Direito e golpe de Estado.

A responsabilização nesses casos pressupõe uma falha sistêmica, e não meramente a ausência de remoção de um conteúdo.

7. Em casos de remoção de conteúdo pela plataforma em razão do cumprimento dos deveres inerentes ao item 6, o autor do conteúdo poderá requerer judicialmente o seu restabelecimento, mediante demonstração da ausência de ilicitude. Ainda que o conteúdo seja restaurado por ordem judicial, não haverá imposição de indenização ao provedor.

8. Quanto ao dever de mitigação de riscos sistêmicos, caberá ao Congresso Nacional regular o tema, inclusive com definição de sanções e órgão regulador independente e autônomo, a ser criado.

9. Os provedores de aplicação de internet que possuem papel ativo deverão criar ou indicar, no prazo de 180 dias, uma entidade de natureza privada que possa promover a autorregulação regulada, inclusive com a atribuição de desenvolver mecanismos de inteligência artificial destinados à remoção de conteúdos ilícitos das mais diversas formas e desenvolver e difundir ações de educação digital.

10. Para privilegiar a segurança jurídica, atribui-se efeitos prospectivos à interpretação proposta. Desse modo, para os casos posteriores à vigência da Lei n. 12.965/2014 e anteriores ao trânsito em julgado da presente decisão, deve ser aplicado o regime de imunidade originalmente definido pelo Marco Civil da Internet, que exceptua o modelo de exclusão após decisão judicial apenas nos casos de conteúdo íntimo de nudez ou atos sexuais e violação de direito autoral.”

O decano da Corte, Gilmar Mendes, votou por responsabilizar as redes pela não remoção de conteúdos de usuários, mesmo na ausência de ordem judicial prévia.

Propôs que o artigo 19 se aplique apenas em situações específicas, como crimes contra a honra e conteúdos jornalísticos, defendendo que a análise nesses casos deve caber ao Judiciário. Já em outras hipóteses (como uso de identidade falsa para causar dano, por exemplo), as plataformas devem ser responsabilizadas caso não removam conteúdos ilícitos após notificação extrajudicial.

Gilmar sugeriu a criação de quatro regimes a fim de basear a responsabilização das redes:

  • Regime residual: É necessária ordem judicial apenas para conteúdos jornalísticos e crimes contra a honra;
  • Regime geral: Responsabiliza a plataforma que, após ser notificada, se omite ante o conteúdo ilícito, inclusive ao não remover posts idênticos a outros já deletados por decisão judicial;
  • Regime de presunção: Presume a responsabilidade da plataforma por conteúdos veiculados em anúncios pagos e impulsionamentos. Nesses casos, dispensa-se a notificação; e
  • Regime especial – Responsabilização solidária pela não remoção imediata de conteúdos e perfis que divulguem crimes graves, como atos golpistas, discurso de ódio, ameaças à Justiça Eleitoral, incitação ao suicídio ou terrorismo.

O ministro Alexandre de Moraes proferiu o sétimo voto por ampliar a responsabilização das redes. Segundo o ministro, é necessário questionar o modelo atual das big techs, que se apresentam como meras empresas de tecnologia, mas funcionam como empresas de mídia e publicidade.

“Temos de equiparar [com empresas de mídia]. Elas não são apenas depositárias neutras de conteúdos alheios. Elas editam, promovem, direcionam e lucram com isso.” Ele acompanhou a tese apresentada por Dias Toffoli.

O ministro Edson Fachin foi o segundo a votar de forma mais favorável às big techs. Ele entendeu que os arts. 19 e 21 do marco civil da internet devem seguir válidos. Para Fachin, a necessidade de decisão judicial para retirada de postagens ilegais reafirma a constitucionalidade da liberdade de expressão.

A décima a votar foi a ministra Cármen Lúcia, que seguiu o entendimento da maioria e formou o 8 votos a 2 pela inconstitucionalidade do artigo 19 do Marco Civil da Internet. A ministra afirmou que o artigo 19 é inconstitucional e votou com os ministros que defendem ampliar a responsabilidade das plataformas digitais, mesmo sem a exigência de decisão judicial prévia.

ENTENDA MAIS SOBRE: , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.

CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.

Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo