Política
Responsabilidade compartilhada
A distribuição de conteúdos de ódio durante os ataques a escolas apressa o debate sobre a regulação das plataformas


Nos dias seguintes aos ataques a escolas em São Paulo e Blumenau, o Twitter decidiu manter no ar cerca de 400 postagens a respeito dos atentados. Às consultas de jornalistas sobre sua postura em relação à moderação e retirada dos conteúdos considerados nocivos e incitadores do ódio, a direção da empresa respondia com um emoji de fezes, prática pretensamente gaiata adotada pela rede social do bilionário Elon Musk. Enquadrado pelas ameaças de punição feitas pelo governo, o Twitter rapidamente se retratou, mas o episódio serviu como a mais perfeita tradução do descaso com o qual as maiores plataformas digitais lidam com o problema em boa parte do mundo. Sem qualquer regulação externa – realidade que começou a mudar na Europa – e únicas responsáveis por divulgar, a partir de métodos e abrangências distintos, seus números e ações relativos à moderação e retirada de conteúdos, as Big Techs aproveitam o vácuo legal que impera na maioria dos países para se eximir da prestação de contas à sociedade.
No Brasil, que aprovou, em 2014, o Marco Civil da Internet, os recentes ataques em escolas coincidiram com o avanço das discussões sobre o Projeto de Lei 2630, o PL das Fake News, parado há três anos na Câmara. Diante dos acontecimentos, o presidente da Câmara, Arthur Lira, prometeu colocar o assunto em pauta até o fim de abril. A disposição do parlamentar coincide com o esforço do governo, a partir do Ministério da Justiça e da Secretaria de Comunicação Social da Presidência, para disciplinar as regras de monitoramento externo das plataformas. Divergências pontuais entre as duas pastas persistem, assim como arestas em relação ao relatório do PL elaborado pelo deputado Orlando Silva, do PCdoB. A avaliação de todos é, no entanto, que está mais que na hora de as empresas adotarem um modelo de atuação mais responsável no País.
As leis aprovadas na Europa servem de parâmetro para a discussão no Brasil
A Secom prefere a moderação do funcionamento das redes sociais, como forma de impedir que postagens nocivas circulem impulsionadas por um modelo de negócios que promove conteúdo baseado exclusivamente na interação. A Justiça defende, por sua vez, medidas para determinar a responsabilidade das plataformas nas postagens. “São duas abordagens muito diferentes. A segunda tem efeito negativo preocupante, um incentivo para as plataformas derrubarem muito mais conteúdos de maneira individual”, diz Bia Barbosa, representante da Coalizão Direitos na Rede no Comitê Gestor da Internet no Brasil. Segundo ela, a proposta da Secom é mais eficiente. “É uma medida que preserva o equilíbrio da regulação com o legítimo exercício da liberdade de expressão.”
Até Arthur Lira parece ter se convencido da necessidade de votar o PL das Fake News – Imagem: Tânia Rêgo/ABR
O CGI iniciará, em 25 de abril, uma consulta pública sobre a regulação das plataformas: “Faremos um debate que vai além do que está sendo discutido no âmbito do PL das Fake News”, afirma Renata Mielli, coordenadora do comitê. Um dos temas é a possível criação de um órgão responsável pela regulação das redes. “Está bastante claro para nós que uma lei que gera um conjunto de obrigações para as empresas, inclusive com a previsão de sanções, exige a criação de um órgão para acompanhar sua implementação.” Uma das bases do modelo de negócios das plataformas, afirma, é a opacidade. “Não há transparência sobre a operação e a prestação de serviços dessas empresas, com dados específicos para o Brasil.” Um dos pilares do PL 2630 é justamente criar obrigações de transparência para as empresas, com o objetivo de obter mais elementos para a produção de políticas públicas e para que pesquisadores possam ter mais informações e possam compreender o trabalho de moderação.
O PL das Fake News, diz Silva, também se preocupa com a proteção da liberdade de expressão. “Por isso estabelece um mecanismo de moderação de conteúdo com direito ao contraditório. Hoje, as plataformas retiram publicações e reduzem seu alcance. Ao usuário resta aceitar. O que a gente propõe é que haja o devido processo após a moderação. Quando o usuário é notificado, ele tem direito a contestar a visão da plataforma.” O deputado defende ainda que o cumprimento da lei seja fiscalizado por um órgão regulador. “Que seja uma entidade autônoma, com capacidade técnica de fiscalizar o cumprimento da lei em seu conjunto e, ao mesmo tempo, de aplicar sanções administrativas. É fundamental que exista uma entidade reguladora, para que a lei não vire letra morta. Não podemos esperar apenas o Judiciário tomar decisões, até porque o tempo da internet é diferente da Justiça. Uma entidade reguladora pode ser mais ágil, inclusive na aplicação de sanções.”
Fora da curva. Sob o controle de Leon Musk, o Twitter desdenha das leis, da ética e do bom senso – Imagem: Redes sociais e Cleverson Oliveira/MCom
O texto elaborado pelo parlamentar tem como inspiração a legislação aprovada pela União Europeia após a criação do Digital Services Act, sistema que será oficialmente implantado até o próximo ano e resultará na criação de uma estrutura reguladora dos conteúdos disponibilizados pelas empresas. “Importamos da lei europeia dois conceitos: a análise de riscos sistêmicos e o dever de cuidado, que podem ser incorporados à lei brasileira, criando a obrigação de cuidar de determinados conteúdos. Há um elenco de materiais ilícitos que exigem atenção redobrada.” Segundo Bia Barbosa, a Europa serve de modelo. “Propomos a mesma discussão no Brasil. Esperamos que este seja um dos avanços do projeto que será votado na Câmara, com a realização de auditorias externas do funcionamento dos algoritmos e dos sistemas de moderação que permitam verificar como funcionam.”
O governo enviou a Silva um texto com suas propostas de regulação, mas este ainda não foi apresentado publicamente. Embora não externadas, as visões divergentes entre a Justiça e a Secom são percebidas em declarações dadas por integrantes das respectivas pastas. No texto do governo, um capítulo fala do dever de mitigar riscos sistêmicos e outro trata da responsabilidade das plataformas, o chamado dever de cuidado, a determinação para as plataformas interpretarem 63 tipos penais e derrubarem conteúdos em razão disso. Apesar das diferenças, o secretário de Políticas Digitais da Secom, João Brant, ressalta que o texto enviado à Câmara é obra do conjunto do Executivo, com contribuições dos ministérios da Cultura, dos Direitos Humanos e da Ciência e Tecnologia, além da AGU e da Secretaria de Relações Institucionais, coordenados pela Casa Civil. “Queremos uma transparência ativa que dê visibilidade sobre o sistema de funcionamento dos algoritmos e que esteja associada a alguns compromissos que aumentem a percepção do usuário e da sociedade sobre o que fazem as redes.”
Há divergências de propostas entre o Ministério da Justiça e a Secretaria de Comunicação
Brant defende um sistema de supervisão autônomo para que as plataformas possam ser acompanhadas. Em relação aos conteúdos individuais, diz, funcionaria melhor a autorregulação. “O governo enviou suas contribuições ao relator do PL. Estamos seguindo o cronograma da Câmara e a urgência que está posta pelo presidente da Casa.” As plataformas, avalia o secretário, têm dificuldade em se adaptar a processos de regulação. “Algumas são mais colaborativas e outras têm uma postura mais hostil e são menos dispostas a colaborar, inclusive na percepção de que o cenário exige ações e protocolos diferentes dos que elas vêm adotando.” Brant menciona a postura do Twitter. “Ao classificar como não violadores dos seus termos de uso alguns perfis que fazem clara apologia de criminosos faz a gente perceber que muitas vezes esses termos não estão adequados à legislação brasileira.”
No fim, a empresa de Musk recuou. Assessora especial do ministro Flávio Dino e futura secretária de Direitos Digitais, Estela Aranha afirma que, desde 13 de abril, a empresa tem excluído os conteúdos apontados pelo governo. “Como regra, as plataformas farão tudo o que puderem para procrastinar a discussão. O Estado tem de agir para criar um ambiente mais saudável na internet. É preciso rever esse modelo de negócios responsável por uma fratura na sociedade, com uma série de consequências, como a onda de violência nas escolas. Assim como na tentativa de golpe em 8 de janeiro, esses movimentos foram urdidos na internet”, afirma Silva.
Convergência? Tanto Brant, da Secom, quanto o deputado Orlando Silva falam em preservar a liberdade de expressão – Imagem: Tom Costa/MJSP e Samuel Figueira/Ag. Câmara
Para Mielli, os dados isolados fornecidos pelas empresas não têm muita relevância. “É preciso saber quantos usuários há nessas plataformas no Brasil, quantos ativos, quantos conteúdos, em média, são postados em cada plataforma, quantos destes são moderados por políticas próprias, quantos por ordem judicial. Sem uma informação mais sistemática não haverá meios de mensurar a atuação das plataformas nesse campo.” O Brasil, avança e, de acordo com Bia Barbosa, precisa mudar o modus operandi das Big Techs. “É a forma de evitar que esses riscos sistêmicos continuem a se reproduzir com riscos à integridade física e à proteção do Estado Democrático de Direito.” •
Publicado na edição n° 1256 de CartaCapital, em 26 de abril de 2023.
Este texto aparece na edição impressa de CartaCapital sob o título ‘Responsabilidade compartilhada’
Apoie o jornalismo que chama as coisas pelo nome
Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.
O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.
Estamos aqui, há 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.
Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.