Política

assine e leia

Faroeste digital

O Senado avança na regulação da Inteligência Artificial, enquanto o STF avalia mecanismo para responsabilizar as big techs

Faroeste digital
Faroeste digital
Imagem: iStockphoto
Apoie Siga-nos no

Desde segunda-feira 9, está disponível por 20 dólares mensais, para assinantes do ChatGPT nos EUA, o mais novo avanço tecnológico em Inteligência Artificial voltada ao “cidadão comum”. Desenvolvido pela ­OpenAI e capaz de gerar vídeos realistas a partir de comandos de texto simplificados, o sistema Sora chega ao mercado cercado de polêmica, tantas são as dúvidas sobre o seu impacto em áreas como a produção audiovisual e o jornalismo e os temores quanto ao uso indevido para a disseminação de desinformação política ou atentados contra a honra. Enquanto os cães ladram, a caravana da empresa comandada por Sam Altman acelera o ritmo, de olho na disputa por um mercado que não para de crescer, povoado por dezenas de startups que prometem outras novidades para 2025, quando o mundo poderá conhecer a Inteligência Artificial Geral (AGI, na sigla em inglês), nova fase do desenvolvimento da tecnologia. Líder nessa corrida, a OpenAI recebeu um empurrãozinho de 16 bilhões de dólares dado pela gigante Microsoft para manter sua posição.

Na maioria dos países, a efervescente disputa comercial não é acompanhada na mesma velocidade pelos esforços para regulamentar o uso da nova tecnologia. No Brasil, onde a estagnação do setor de CT&I no governo Bolsonaro fez o País entrar atrasado na discussão, tanto no aspecto científico quanto no legal, a semana trouxe um importante avanço com a votação pelo Senado da lei que regulamenta o uso da IA em território nacional. A aprovação do projeto, que agora segue para a Câmara, coincide com a retomada pelo Supremo Tribunal Federal da discussão de outro aspecto regulatório fundamental: a criação de um arcabouço legal para definir a responsabilização das grandes plataformas, as chamadas big techs, em relação aos conteúdos por elas veiculados. Com os votos proferidos por seus respectivos relatores, foram iniciados julgamentos que decidirão sobre a constitucionalidade do ­Artigo 19 do Marco Civil da ­Internet e sobre as condições em que devem ser atribuídas as responsabilidades das redes.

O texto aprovado prevê remuneração pelo uso de obras protegidas por direitos autorais na construção de ferramentas de IA

No Senado, a aprovação da proposta de regulação da IA apresentada pelo presidente da Casa, Rodrigo Pacheco, do PSD, aconteceu na terça-feira 10, em votação simbólica, após um ano e meio de discussão. Entre outros pontos, o Projeto de Lei define quais tecnologias são consideradas de “alto risco”, com uma “regulamentação reforçada”, e quais são as de “risco excessivo”, que sofrerão proibição. Estão vedados, por exemplo, a “utilização de IA para operação de armas autônomas” e o “uso de ferramentas pelo Poder Público para avaliar, classificar ou ranquear pessoas para acessos a bens ou serviços”. Outro ponto importante do texto determina a remuneração aos autores de qualquer conteúdo utilizado para alimentar e treinar novas ferramentas de IA. Para os que descumprirem as novas regras, o projeto prevê punições que vão desde uma simples advertência até a aplicação de multas que podem chegar a 50 milhões de reais ou 2% do faturamento bruto da empresa punida.

A aprovação pelo Senado foi bem recebida pelo governo, que, por intermédio da Secretaria de Comunicação, trabalhou na articulação entre diferentes órgãos internos e no diálogo com o setor produtivo, a sociedade civil e o Congresso: “Foi aprovado um bom projeto, capaz de proteger direitos e inaugurar no Brasil um marco para a Inteligência Artificial que seja à prova de futuro, ou seja, que não precisa ser atualizado a cada poucos anos porque está baseado em riscos. Embora a tecnologia mude sempre, os riscos não mudam tão frequentemente. É um modelo flexível e que equilibra de forma positiva a proteção de direitos e a preservação da competitividade”, diz João Brant, secretário de Políticas Digitais da Secom.

Acordo. O marco regulatório passou por votação simbólica no plenário da Casa Legislativa – Imagem: Marcos Oliveira/Agência Senado

A nova lei prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). Farão parte do SIA o Comitê de Especialistas e Cientistas de Inteligência Artificial e o Conselho Permanente de Cooperação Regulatória de Inteligência Artificial, este último composto de órgãos do Executivo ainda a serem definidos. “O sistema de governança é positivo porque preserva o papel dos órgãos setoriais e estabelece um órgão central com capacidade de gerenciar e de atuar sobre setores que não têm regulação específica e passarão a ser acompanhados por esse órgão central”, diz Brant. Para o presidente da comissão especial do Senado que analisou o projeto, Carlos Viana, do Podemos, o texto “não tira qualquer liberdade, mas diz aos criadores de IA que eles têm responsabilidades quanto ao uso de suas ferramentas”.

A responsabilização das big techs por aquilo que veiculam é também o norte dos dois julgamentos simultâneos sobre o tema que acontecem no STF. Um deles discute a constitucionalidade do Artigo 19 do Marco Civil da Internet, a estabelecer que um provedor somente deve ser responsabilizado por danos decorrentes do conteú­do divulgado se tiver descumprido uma determinação judicial para retirá-lo do ar. Em voto proferido na semana passada, o relator, ministro Dias Toffoli, apontou a inconstitucionalidade dessa passagem e determinou que, em casos de conteúdos ilegais ou ofensivos, basta uma notificação extrajudicial para que estes tenham de ser obrigatoriamente removidos. Toffoli defendeu ainda a ampliação do artigo 21 do Marco Civil, que prevê a exclusão automática de conteúdos em diversas modalidades, como ameaças ao Estado Democrático de Direito, terrorismo, induzimento ao suicídio e incitação à violência contra vulneráveis, entre outras. “As zonas cinzentas da legislação sempre favoreceram as big techs”, observou o ministro.

A invalidação do Artigo 19 do Marco Civil da Internet reforça o poder das empresas de decidir sobre o que pode ou não ser publicado

Na quarta-feira 11, o relator do segundo julgamento no STF, ministro Luiz Fux, começou a ler seu voto, que também aponta para maior responsabilização das redes, mas ainda não havia finalizado até a conclusão desta reportagem. A expectativa nas entidades representativas da sociedade é positiva, embora lacunas ainda precisem ser preenchidas. O Comitê Gestor da Internet no Brasil, por exemplo, defende a constitucionalidade do Artigo 19, mas sugere que o Supremo estabeleça uma interpretação de acordo com a Constituição para definir mais responsabilidade para as big techs: “Defendemos regras mais rígidas, mas que precisam vir acompanhadas de outros mecanismos para que o Estado e a sociedade impeçam abusos. O voto do ministro Toffoli não levou em consideração a diversidade do ecossistema de aplicações que serão negativamente afetadas com a inconstitucionalidade do Artigo 19. Ao colocar todo mundo na mesma bacia das almas, vai trazer um cenário de insegurança jurídica enorme”, avalia Renata Mielli, coordenadora do CGI.

A jornalista defende a manutenção do previsto no Artigo 19 apenas para os intermediários clássicos de conteúdo e a criação de novas e específicas obrigações para as big techs: “Infelizmente, o voto do Toffoli não veio nesse sentido. Podemos correr o risco de as novas regras de responsabilidade, sem notificação prévia, terem um efeito indesejado de ampliar ainda mais o poder privado das big techs de decidir sobre o que pode ou não circular de conteúdo, de forma totalmente discricionária. Pior, pode haver uma moderação mais ativa ainda, uma vez que o receio de serem responsabilizadas civilmente por conteúdos de terceiros pode gerar um vigilantismo e a remoção de conteúdos legítimos”.

Tendência. O Supremo cogita ampliar leque de situações que ensejam a exclusão automática de conteúdos

Mielli lamenta que o PL 2630, que trata do tema, esteja engavetado no Congresso. “O projeto propõe mais responsabilidade, ao lado de uma série de outras obrigações que precisavam ser vistas em conjunto para que de fato pudessem ter o impacto que se buscava. Infelizmente, a Câmara não encontrou ambiente para votá-lo”, afirma a coordenadora do CGI. A postura da oposição de extrema-direita, que navega nos desvãos legais das plataformas com a habilidade de um argonauta, é o maior empecilho para o andamento do projeto. Os acontecimentos políticos polarizados no Brasil aumentam o clamor para ampliar a responsabilidade dessas empresas.

Relator do PL 2630 na Câmara, o deputado Orlando Silva, do PCdoB, é outro a lamentar: “Essa regulação deveria ocorrer via Parlamento, que é o lugar natural do debate político e que recebe as legítimas pressões e contrapressões das forças sociais e econômicas que existem na sociedade. Ao decidir pela omissão, o Parlamento abre caminho para que o STF trate o tema, o que se torna inescapável, uma vez que existe uma ADI e o Judiciário precisa dar resposta a ela”. No Congresso, emenda Silva, há setores com interesse político em manter tudo como está: “Já estamos na reta final do ano, com a pauta ocupada com diversos temas, como o pacote fiscal, a reforma tributária e a Lei Orçamentária. Não vejo condições para tratar deste e de outros temas relevantes antes da eleição da mesa diretora, que acontecerá na primeira sessão do ano que vem”.

As big techs estão mais comedidas do que na época da discusão do PL 2630 na Câmara

O deputado situa “entre o remédio e o veneno” o voto de Toffoli sobre o Artigo 19. “O diagnóstico está correto, as plataformas precisam ser responsabilizadas, mas é preciso ser parcimonioso quanto ao escopo da obrigação de moderação das empresas, sob risco de abrir portas para arbitrariedades. Por isso, na proposta do PL 2630 trazíamos o dever de cuidado quanto a riscos sistêmicos e um rol de crimes tipificados sobre os quais as plataformas teriam a obrigação de agir”, diz. Silva avalia que a mudança no regime de responsabilidade civil das plataformas é cada vez mais percebido como uma necessidade: “Apenas a autorregulação não deu e não dará conta da dimensão e complexidade que as plataformas adquiriram para a organização da sociedade. Por poderoso que seja, não existe segmento econômico que possua imunidade regulatória. Por isso, a tendência é que alguma forma de responsabilização venha a ocorrer”.

Para o governo, é possível ir além do que se discute no STF. “O voto do ministro busca um caminho que dê conta de impactar positivamente o ambiente digital no sentido de um equilíbrio de direitos, mas ainda não oferece um modelo que possa resolver determinadas questões. Tem o mérito de sair do lugar-comum, mas ao mesmo tempo não está claro se a solução que coloca terá efeitos colaterais indesejados”, avalia Brant. O ­Artigo 19, prossegue o secretário, deveria ser preservado para proteger atividades como o jornalismo. “Entendemos que o Artigo 19, por exigir ordem judicial para eventual responsabilização das plataformas, deveria ser mantido como um sistema-base, especialmente para os casos nos quais precisamos garantir a liberdade de expressão.”

Meta. A empresa diz apoiar o debate sobre uma regulação complementar com “ampla participação da sociedade civil” – Imagem: iStockphoto

As big techs estão mais comedidas do que na época da discussão do PL 2630 na Câmara, mas deixam claro ser contra mudanças: “A Meta defende a constitucionalidade do Artigo 19 do Marco Civil da ­Internet, ao mesmo tempo que apoia o debate sobre regulação complementar a ser definida em processo legislativo com ampla participação da sociedade civil. A norma-mãe da internet brasileira foi construída em rede, e em rede poderá ser complementada e aprimorada”, diz em nota a empresa comandada pelo bilionário Mark Zuckerberg. Controladora das redes sociais Facebook, WhatsApp e Instagram, a Meta diz ter investido, nos últimos anos, “bilhões de dólares em pessoas e tecnologia para garantir a segurança e integridade dos serviços oferecidos”. Outra empresa a manifestar-se foi o Google: “Não existe inércia na remoção de conteúdos ilícitos pela plataforma. Em 2023, o YouTube retirou do ar 1,6 milhão de vídeos no Brasil, por violarem as políticas da empresa”. •

Publicado na edição n° 1341 de CartaCapital, em 18 de dezembro de 2024.

Este texto aparece na edição impressa de CartaCapital sob o título ‘Faroeste digital’

ENTENDA MAIS SOBRE: , , , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.

CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.

Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo