Renata Mielli

[email protected]

Jornalista, doutoranda em Ciências da Comunicação pela ECA-USP, coordenadora do Centro de Estudos da Mídia Alternativa Barão de Itararé, membro da Câmara de Conteúdos e Bens Culturais do CGI.br, integrante da Coalizão Direitos na Rede.

Opinião

cadastre-se e leia

A pressa é má conselheira

Regular as plataformas é indispensável para fortalecer a democracia, mas não há bala de prata contra a desinformação

Imagem: iStockphoto
Apoie Siga-nos no

Um dos desafios atuais mais complexos e repleto de nuances é o debate sobre regulação das Big Techs. Somados, os valores de mercado da Alphabet, dona do Google e do ­Youtube, da Meta, que controla Facebook, ­WhatsApp e Instagram, da Apple, da ­Microsoft e da Amazon chegam à impensável cifra de 7 trilhões de dólares, o que colocaria essas cinco empresas, juntas, na posição de terceira maior economia do mundo, atrás apenas de China e EUA.

Essas plataformas se tornaram o espaço onde bilhões de indivíduos passaram a se expressar de forma pública. No entanto, em vez de terem qualificado o debate na sociedade – possibilitando o choque de opiniões distintas num contexto democrático –, o que temos visto é a fragmentação da esfera pública e um ambiente fértil para a proliferação de ­desinformação, discursos de ódio e conteúdos antidemocráticos.

Está mais do que claro o papel estratégico dessas empresas para a organização da extrema-direita. A estrutura das redes sociais e dos serviços de mensagens, como Telegram e WhatsApp, estabelece uma dinâmica de articulação entre diversos atores, na qual a hierarquia se distribui de forma eficiente e gera uma rede capilarizada de disseminação de conteúdos.

Os vários escândalos envolvendo as Big Techs em processos políticos e eleitorais, os impactos da desinformação na pandemia de Covid, entre outros, aprofundaram a urgência de se debruçar sobre esse tema. No Brasil, o debate de regulação das plataformas passou a ter mais abrangência com o início da tramitação do Projeto de Lei 2.630/2020, que trata de liberdade, responsabilidade e transparência na internet. Conhecido como PL das Fake News, só não foi apreciado no plenário da Câmara, em abril do ano passado, pela intervenção do governo Bolsonaro.

As eleições e os ataques de 8 de janeiro reaqueceram esse debate, sobretudo diante da quase omissão das plataformas, tanto na aplicação de suas políticas próprias quanto na observância da legislação nacional e nos poucos compromissos que firmaram para garantir que conteúdos de desinformação, ódio e antidemocráticos não ganhassem o alcance que tiveram.

Lula viu-se diante da necessidade de dar resposta ao problema do uso das redes para disseminar o golpismo. Surgiram rumores sobre uma possível Medida Provisória para tratar do assunto. Mas, após inúmeras manifestações de especialistas alertando para os perigos de tratar um tema de alta complexidade através de MP, o governo sinaliza buscar outro caminho.

O problema é sistêmico e tem relação com o modelo de negócios das Big Techs

Esse debate precisa contar com um processo de ampla escuta da sociedade: terceiro setor, academia, setor empresarial e, inclusive, agentes públicos variados. O Marco Civil da Internet é um exemplo de como uma participação ampla pode gerar uma lei que se transformou em referência internacional. A discussão precisa ser precedida de definições de escopo regulatório, quais obrigações e outras medidas adotar, sanções, responsáveis pela implementação e fiscalização da regulação, entre outros. Esses aspectos são importantes porque o objetivo da regulação é conter e não dar mais poder para empresas que já são poderosas demais.

Além disso, é preciso tomar cuidado para não transpor automaticamente modelos de responsabilidade de outros meios de comunicação para as plataformas. Quando se discute que é necessário responsabilizar civilmente as Big Techs pelos conteúdos postados por seus usuários, o que se tem em mente é a ideia de equiparar as plataformas às empresas jornalísticas. Mas trata-se de modelos totalmente distintos.

Nas empresas jornalísticas, a produção é própria, daí fazer todo sentido que estas se responsabilizem pelos conteúdos. No caso das plataformas, não. Quem produz os conteúdos somos nós. A ideia de criar obrigações de monitoramento e exclusão de conteúdos e contas, e vincular essas obrigações a multas, pode gerar efeitos negativos, ao conferir a empresas privadas o papel de decidir o que circula ou não de conteúdo de forma ainda mais discricionária para evitar sanções.

Por outro lado, na medida em que o modelo de negócios dessas empresas define o que cada usuário recebe, com qual velocidade e o grau de alcance, elas não podem ser consideradas neutras nesse processo. Principalmente porque essas decisões são resultado do uso de poder econômico (impulsionamento e anúncios) e de mecanismos automatizados de seleção, relevância e recomendação.

Vale lembrar que elas já tomam decisões sobre conteúdos e contas a partir de suas políticas próprias. Os aspectos da operação das plataformas são, porém, opacos. A sociedade não conhece claramente os critérios utilizados, os mecanismos usados para moderar conteúdos, o volume de conteúdos que sofreram moderação etc. Todas informações indispensáveis para se propor um modelo regulatório que não gere incentivo para que as plataformas sejam mais proativas na remoção de conteúdos, o que pode trazer graves perigos à liberdade de expressão.

Outro cuidado é não cair na tentação de transpor de forma automática soluções regulatórias encontradas em outros países, com contextos jurídicos, sociais, culturais e econômicos diferentes dos nossos. O que pode ser considerado ideal para a Alemanha, por exemplo, pode não ser adequado para o Brasil. Diante da complexidade do tema, o mais indicado seria construir no interior do governo um espaço interministerial para articular esse debate, com a incumbência de ouvir a sociedade civil e estabelecer interface com o debate acumulado no Congresso Nacional.

A sociedade precisa compreender que não há bala de prata para acabar com a desinformação, com o discurso de ódio e com a circulação de conteúdos antidemocráticos. O problema é sistêmico e está relacionado com o modelo de negócios das Big Techs, cujos design e estímulo à interação são usados como fatores de captura da atenção, para maximizar o extrativismo de dados que orienta a dinâmica de distribuição e recomendação algorítmica de forma personalizada. Esta é a máquina que dá vazão à desinformação, aos discursos de ódio e antidemocráticos. •


*Jornalista, doutoranda em Ciências da Comunicação pela ECA-USP, coordenadora do Centro de Estudos da Mídia Alternativa Barão de Itararé, integrante da Coalizão Direitos na Rede e da Câmara de Conteúdos e Bens Culturais do CGI.br.

PUBLICADO NA EDIÇÃO Nº 1247 DE CARTACAPITAL, EM 22 DE FEVEREIRO DE 2023.

Este texto aparece na edição impressa de CartaCapital sob o título “A pressa é má conselheira”

Este texto não representa, necessariamente, a opinião de CartaCapital.

Leia essa matéria gratuitamente

Tenha acesso a conteúdos exclusivos, faça parte da newsletter gratuita de CartaCapital, salve suas matérias e artigos favoritos para ler quando quiser e leia esta matéria na integra. Cadastre-se!

ENTENDA MAIS SOBRE: , , , , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Os Brasis divididos pelo bolsonarismo vivem, pensam e se informam em universos paralelos. A vitória de Lula nos dá, finalmente, perspectivas de retomada da vida em um país minimamente normal. Essa reconstrução, porém, será difícil e demorada. E seu apoio, leitor, é ainda mais fundamental.

Portanto, se você é daqueles brasileiros que ainda valorizam e acreditam no bom jornalismo, ajude CartaCapital a seguir lutando. Contribua com o quanto puder.

Quero apoiar

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo