PL para combater desinformação avança na Câmara com polêmicas e riscos

Principal problema segue na tentativa de identificar remetentes de conteúdos ilícitos em apps de mensagens

PL para combater desinformação avança na Câmara com polêmicas e riscos

Intervozes

A regulação da circulação de conteúdos em plataformas, especialmente da desinformação e, ou, como chamado popularmente, das fake news, é tema chave do setor das comunicações na atualidade. Desde o ano passado, tramita no Congresso Nacional o Projeto de Lei 2.630 de 2020, de autoria do Senador Alessandro Vieira (Cidadania-SE). A proposta, que cria a “Lei da Liberdade, Responsabilidade e Transparência na Internet”, depois de ser aprovada no Senado, agora conta com um novo relatório, ainda extra-oficial, do deputado Orlando Silva (PCdoB-SP).

O texto do parlamentar circula nos últimos dias entre veículos de imprensa e atores envolvidos no debate, apesar de ainda não ter sido protocolado no sistema da Câmara. Ele será objeto de discussões nesta terça-feira 26 pelo GT-NET, grupo de trabalho criado na Casa para proferir parecer sobre o tema.

A estrutura geral da proposta segue a mesma da aprovada pelos senadores. Corretamente – e em direção oposta ao relatório da CPI da Covid –, não traz uma definição do conceito de “desinformação”, optando por oferecer outras medidas para combater a prática. Entre elas, vedar condutas como o uso de contas automatizadas não identificadas, elencar obrigações de transparência para redes sociais e apps de mensagem, proibir disparos em massa de mensagens e prever a adoção de um Código de Conduta para os provedores desses servidos, a ser elaborado multissetorialmente.

 

 

Para dar conta deste último ponto, o novo relatório inova positivamente e, em vez de estabelecer a criação de um Conselho de Transparência e Responsabilidade vinculado ao Congresso, o relator propõe que o acompanhamento da implementação da lei seja feito pelo Comitê Gestor da Internet no Brasil (CGI.br), reconhecido internacionalmente por seu caráter multissetorial e sua expertise técnica. Pelo substitutivo, o CGI.br passaria a contar com câmara técnica, com representação de instituições públicas, empresas, sociedade civil e comunidade técnica, para dar conta das novas atribuições trazidas pela lei.

Uma delas, como dito, seria o Código de Conduta. O texto, entretanto, indica apenas que as diretrizes para a elaboração do documento seriam dadas pelo CGI, não deixando claro como e onde o Código em si seria formulado. Desta forma, esse aspecto fundamental do PL, capaz de responder infralegalmente e de maneira dinâmica aos novos desafios trazidos pela evolução tecnológica, ainda está com pontas soltas.

Outra mudança positiva do relatório foi incluir, entre as plataformas reguladas pela futura lei, os mecanismos de busca, como o Google, que também impactam na circulação de conteúdo no ambiente online. O relator melhorou ainda aspectos importantes nas regras sobre moderação de conteúdo em relação ao texto que saiu do Senado. Detalhou e focou as normas na garantia do chamado devido processo, com procedimentos para que usuários sejam informados quando e por que uma publicação é alvo de medida de moderação por parte da plataforma (como remoção, redução do alcance ou marcação) e possam recorrer, caso discordem da análise da rede social.

Tais recursos são fundamentais para evitar abusos por parte das plataformas. O texto melhora a versão aprovada no Senado, que continha redações imprecisas e criava exceções às obrigações de notificação. Mas afasta-se, também corretamente, do que propunha a Medida Provisória editada pelo presidente Bolsonaro em setembro, que visava impedir as redes sociais de moderarem conteúdos, salvo exceções consideradas como de “justa causa”.

Por fim, o substitutivo avança em termos das regras sobre uso de plataformas digitais por agentes públicos. Determina que contas de altos políticos eleitos devem ser tratadas como sendo de interesse público, com obrigações e direitos específicos, e proíbe que tais figuras recebam recursos a partir de contas de aplicações (como verbas advindas de um canal de YouTube). E mantém a previsão, já aprovada no Senado, de requisitos de divulgação de dados de órgãos da Administração Pública sobre publicidade contratada na Internet.

O sério problema da rastreabilidade no Whatsapp

Apesar de mais de um ano de aprofundadas discussões na Câmara, o substitutivo, entretanto, mantém alguns dos problemas já constatados na versão aprovada no Senado. O principal deles está relacionado à tentativa de identificação dos remetentes originais de mensagens com conteúdos ilícitos em aplicativos de mensagem protegidos por criptografia de ponta a ponta.

A versão aprovada no Senado contava com um o dispositivo para obrigação de guarda de metadados de mensagens virais, que, em teoria, permitiriam a rastreabilidade da cadeia de encaminhamento do conteúdo, até se chegar ao seu autor. Desde que o texto foi proposto, organizações da sociedade civil como o Intervozes e articulações como a Coalizão Direitos na Rede criticaram o mecanismo, que amplia riscos de vigilância, viola a Lei Geral de Proteção de Dados Pessoais e a Constituição Federal ao obrigar a guarda prévia e indiscriminada de dados de todos os usuários – no Brasil, mais de 140 milhões de pessoas.

Na nova redação que circula, a rastreabilidade das cadeias de mensagem não aparece como tal. Mas o relatório mantém a obrigação das empresas de identificar o remetente original das mensagens disseminadas massivamente, empurrando as plataformas para a mesma guarda dos dados – só que, agora, sem disciplinar quais seriam guardados e por quanto tempo. Ou seja, a ampliação da vigilância e os riscos decorrentes da medida não apenas permanecem, como aumentaram.

Mais grave ainda, para identificar um “remetente original”, a plataforma deverá monitorar a circulação de uma mensagem entre usuários, inclusive identificando o seu conteúdo, para saber de onde determinado encaminhamento partiu. Abre-se aí o risco grave de quebra da criptografia ponta-a-ponta onde ela existe, como é o caso do Whatsapp. Por fim, fala de mensagens “massivas” sem definir o que seriam, deixando essa decisão para as empresas, que terão seu poder sobre os usuários ainda maior.

O texto acrescenta positivas restrições para o uso de contas comerciais nos aplicativos de mensagem. Mas, em geral, a proposta mantém seu caráter perigoso, requerendo maior debate entre os parlamentares.

Livro mostra insuficiência da ação das plataformas

Em que pese velhos e novos problemas do PL 2630, a aprovação de uma regulação das plataformas digitais para o enfrentamento à desinformação e a conteúdos danosos no ambiente online é fundamental. No livro “Fake News: como as plataformas enfrentam a desinformação”, lançado este mês pela editora Multifoco, o Intervozes mostra por que é fundamental ir além da autorregulação e das medidas adotadas voluntariamente por essas empresas.

A pesquisa, conduzida por Bia Barbosa, Helena Martins e Jonas Valente, analisa as ações desenvolvidas entre 2018 e 2020 contra a desinformação por cinco plataformas: Facebook, Instagram, Whatsapp, YouTube e Twitter. Os pesquisadores mostram como essas políticas são pouco ou nada estruturadas e, em geral, implantam medidas de forma reativa, a partir das cobranças da sociedade civil e de governos por repostas mais efetivas aos problemas.

Mesmo com essa pressão, as políticas das plataformas são pouco transparentes e acessíveis aos usuários, e pouco eficientes. Cada plataforma emprega uma abordagem do problema, com Facebook e Instagram sinalizando e reduzindo alcance de publicações, o Twitter atacando mais as contas falsas, o YouTube adotando medidas de moderação sobre alguns conteúdos e o Whatsapp restrito a limitações à viralização de mensagens. Uma ação comum empregada por todas as plataformas foi a disponibilização ao usuário de informações de “fontes confiáveis”, em geral de veículos tradicionais de mídia e autoridades.

Como mostrado no livro, a pandemia do novo coronavírus foi um marco importante para pressionar as plataformas a ampliar medidas de enfrentamento ao problema, inclusive via exclusão de conteúdos falsos associados a determinados aspectos da doença e sua prevenção. Mas elas seguem insuficientes e, muitas vezes, trazem riscos à liberdade de expressão – como os resultantes da análise de conteúdos por sistemas automatizados e sem procedimentos de devido processo.

Por isso a regulação das plataformas digitais, em especial para combater a desinformação, é uma agenda urgente, não somente no Brasil como no mundo. Precisamos, entretanto, de um modelo de regulação democrático, baseado em regras claras, que equilibrem o acesso à informação, a liberdade de expressão e a proteção de dados pessoais dos usuários.

O PL 2.630 foi aprovado no Senado em 2020 de forma atropelada e com propostas problemáticas. Graças à atuação da sociedade civil, de especialistas, da comunidade técnica e de alguns parlamentares, teve sua redação melhorada. Agora, chegando à reta final de tramitação na Câmara, é fundamental que os pontos que ainda trazem riscos a direitos fundamentais sejam aprimorados. Para que não criemos novos e sérios problemas tentando resolver este que é um dos grandes desafios dos nossos tempos: a desinformação.

Um minuto, por favor...

Obrigado por ter chegado até aqui. Combater a desinformação, as mentiras e os ataques às instituições custa tempo e dinheiro. Nós, da CartaCapital, temos o compromisso diário de levar até os leitores um jornalismo crítico, alicerçado em dados e fontes confiáveis. Acreditamos que este seja o melhor antídoto contra as fake news e o extremismo que ameaçam a liberdade e a democracia.

Se você acredita no nosso trabalho, junte-se a nós. Apoie, da maneira que puder. Ou assine e tenha acesso ao conteúdo integral de CartaCapital!

É integrante do Intervozes, pesquisador do LaPCom-UnB e Telas-UFC, um dos autores do livro “Fake News: o que as plataformas fazem para combater a desinformação” (Multifoco, 2021)

Compartilhar postagem