Pesquisa mostra que plataformas fazem pouco para combater fake news

Estudo lançado pelo Intervozes conclui que medidas pontuais são insuficientes para combater fenômeno e reforçam poder das redes sociais

Facebook, Instagram, WhatsApp, YouTube e Twitter não apresentam política e processos estruturados sobre o problema. Foto: Marcello Casal Jr., da Agência Brasil

Facebook, Instagram, WhatsApp, YouTube e Twitter não apresentam política e processos estruturados sobre o problema. Foto: Marcello Casal Jr., da Agência Brasil

Intervozes

Por Bia Barbosa, Helena Martins e Jonas Valente*

O problema da desinformação está no centro do debate político há pelo menos quatro anos, desde que Donald Trump chegou ao poder nos Estados Unidos, valendo-se de uma campanha permeada por fake news e estratégias de segmentação de conteúdos a partir do uso ilegal de dados pessoais.

 

 

No Brasil, os impactos dessa estratégia foram sentidos nas eleições de 2018, que levou Jair Bolsonaro à Presidência, impulsionado por disparos de mensagens em massa e mentiras. Apesar dos escândalos e cobranças de ações por parte das plataformas digitais que sustentam as principais redes sociais, as medidas tomadas têm sido insuficientes para enfrentar concretamente o problema e, por conta da falta de transparência sobre as mesmas, é impossível confirmar sua eficácia.

A conclusão é da pesquisa Fake news: como as plataformas enfrentam a desinformação, cujo sumário executivo foi lançado esta semana pelo Intervozes. No estudo, mapeamos e analisamos as ações das principais redes sociais em operação no Brasil – Facebook, Instagram, WhatsApp, YouTube e Twitter – entre 2018 e meados de 2020, alcançando as novas medidas justificadas pelo contexto da pandemia da Covid-19, após ampla circulação de desinformação sobre a doença e possíveis tratamentos.

Questionamos qual a abordagem da dada para o conceito de desinformação pelas plataformas; se e como é feita a moderação de conteúdo desinformativo; se há promoção de informações e transparência; e quais medidas correlatas adotadas pelas plataformas interferem neste processo. Como referências para a avaliação, foram estudadas recomendações expressas em regras existentes em diferentes países sobre desinformação, em documentos desenvolvidos por autoridades internacionais e especialistas em direitos humanos, como a Comissão Europeia e as Relatorias para Liberdade de Expressão da ONU e da OEA, bem como propostas já elaboradas e apresentadas pelo Intervozes para o enfrentamento das chamadas fake news.

O estudo conclui que Facebook, Instagram, WhatsApp, YouTube e Twitter não apresentam política e processos estruturados sobre o problema – incluindo aí a adoção de um conceito do que seriam conteúdos desinformativos – e desenvolvem sobretudo ações pontuais e reativas ao fenômeno. A ausência de abordagem unificada abre margem para decisões unilaterais e pouco claras, que acabam reforçando a desigualdade de saber e poder entre as corporações e os usuários.

Num contexto de crescimento de decisões automatizadas, também não ficaram claros os critérios de uso de pessoas naturais ou de algoritmos na análise e decisões sobre medidas de moderações de conteúdo. A verificação e “marcação” (flageamento) de conteúdos, principalmente por agências externas, é prática presente em boa parte das plataformas. Mas tal medida, necessária para que o usuário reconheça eventuais problemas no que publicou, deveria contar com mecanismos de devido processo efetivos para a mitigação de abusos e erros por parte das plataformas, o que em geral não ocorre.

A prática de moderação abrange também anúncios e conteúdos impulsionados. A extensão das medidas sobre desinformação aos anúncios é fundamental, porque aí reside a dimensão econômica da produção e difusão de notícias falsas, um negócio que é explorado pelas “fábricas de conteúdos enganosos” e também pelas próprias plataformas, que se beneficiam com a cobrança de impulsionamentos.

 

Redução e remoção

A redução do alcance, providência mais presente em casos de desinformação, acaba assumindo quase uma condição de exclusão e aparece como medida de alto impacto sobre os conteúdos, mas também não tem sua eficiência comprovada. Estudos mencionados na pesquisa apontam que ações como a limitação no número de encaminhamentos no WhatsApp reduzem a velocidade da propagação de desinformações, mas a limitação do alcance não impede que tais conteúdos desinformativos sigam circulando.

Para mudar esse quadro, uma medida urgente é o aprofundamento das investigações sobre a produção da desinformação, a fim de que possam incidir sobre a operação de grupos profissionais que usam as plataformas com sistemas que permitem burlar suas limitações e acabam atingindo sobretudo os usuários comuns.

Durante a maior parte do período considerado na pesquisa, as plataformas resistiram em remover fake news, como ocorre em relação a outros tipos de conteúdo (violento, danoso etc) a partir do que é unilateralmente definido em suas diretrizes. Mas essa postura começou a mudar no contexto da pandemia do novo coronavírus. Os riscos graves à saúde da população pressionaram as corporações a responderem de forma mais ágil e dura.

Nesse contexto, a admissão de situações excepcionais de retirada de postagens em casos de risco evidente de danos graves é razoável, mas precisa vir conectada a regras de devido processo que permitam a contestação, a avaliação dos recursos por pessoas naturais e a reparação em caso de erro na moderação aplicada. No entanto, como dissemos, esses condicionantes não são garantidos em nenhuma das plataformas analisadas.

 

Transparência longe da regra

A pesquisa também mostrou que uma opção de resposta feita pelas plataformas é a disponibilização de informações adicionais para os usuários em caso de conteúdos verificados ou algo de frequentes contestações. Exemplos disso são a exibição de artigos das próprias organizações de checagem e a oferta de informações “de contexto” de “fontes confiáveis”. Conteúdos de veículos jornalísticos e oficiais entram nesta regra, mas os critérios para definir o que é conteúdo jornalístico confiável também não são precisos.

E, quando observada a maneira como cada plataforma informa os usuários sobre como lida com a desinformação, chamou atenção a baixa transparência das redes sociais. As medidas existentes não são apresentadas de forma organizada e boa parte do trabalho da pesquisa foi exatamente buscar e organizar informações dispersas em notícias nos sites oficiais e em espaços de “ajuda” ou FAQ de cada uma das empresas. Essa lógica acaba gerando empecilhos para que a comunicação com os usuários sobre o tema seja efetiva.

O elemento mais problemático em termos de transparência, entretanto, foi a ausência de balanço das ações propagandeadas. Ao não tratarem do problema da desinformação com uma política específica, as plataformas acabaram divulgando informações escassas e dispersas sobre o impacto das medidas adotadas, de maneira que a aferição da concretude dos resultados segue comprometida, aproximando-se mais de promessas não comprováveis. Ou seja, as ações ainda carecem de organização, robustez, transparência e avaliação.

 

Consequências danosas

O resultado desta prática pode ser visto no cotidiano. Mesmo nas eleições municipais deste ano, todas as instituições brasileiras, inclusive o TSE, estão deixando nas mãos das plataformas o enfrentamento concreto à desinformação. O público, mesmo o especializado, não sabe como as medidas estão sendo adotadas e se estão trazendo resultados positivos, o que mostra que o país aprendeu e fez pouco ao longo dos últimos dois anos. Não custa lembrar que os processos que envolvem disparo em massa da campanha de Bolsonaro em 2018 não foram julgados até agora.

Não se trata, porém, apenas de má vontade das plataformas, mas da economia política que as envolve. A internet que temos hoje é marcada pela presença de monopólios digitais que operam com o objetivo de capturar a atenção dos usuários, coletar e tratar dados pessoais, usados posteriormente para a construção de perfis e para o direcionamento de mensagens, incluindo publicidade e propaganda política. Esse modelo de negócios favorece a ocorrência da desinformação que, embora não seja inaugurada com a internet, torna-se mais constante, abrangente, penetrante e de rápida circulação devido às formas de produção, circulação, mediação algorítmica e acesso à informação características das plataformas digitais.

Nosso dilema é complexo, mas há o que ser feito no curto prazo. Desde a reunião das medidas sobre desinformação em uma política específica e de fácil acesso e a ampliação da comunicação com a sociedade sobre o tema à inclusão de medidas contra desinformação em seus relatórios de transparência e facilitação do acesso a dados em investigações e apurações em casos de desinformação relacionada a algum ilícito. A solução passa ainda por cobrar mudanças no modelo de negócios adotado pelas plataformas.

Precisamos que o problema da desinformação seja efetivamente reconhecido, comunicado e enfrentado pelas plataformas, sob pena de elas seguirem oferecendo remédios incapazes de interromper uma forma de comunicação que hoje se converteu em um dos principais desafios às democracias em todo o mundo.

 

*Bia Barbosa, Helena Martins e Jonas Valente são jornalistas, autores da pesquisa e integrantes do Intervozes

 

Responda nossa pesquisa e nos ajude a entender o que nossos leitores esperam de CartaCapital

Um minuto, por favor...

Obrigado por ter chegado até aqui. Combater a desinformação, as mentiras e os ataques às instituições custa tempo e dinheiro. Nós, da CartaCapital, temos o compromisso diário de levar até os leitores um jornalismo crítico, alicerçado em dados e fontes confiáveis. Acreditamos que este seja o melhor antídoto contra as fake news e o extremismo que ameaçam a liberdade e a democracia.

Se você acredita no nosso trabalho, junte-se a nós. Apoie, da maneira que puder. Ou assine e tenha acesso ao conteúdo integral de CartaCapital!

Compartilhar postagem