Política
Do pânico à ação
Não é tarde demais para regulamentar a Inteligência Artificial. O algoritmo não vota, isso cabe a nós


O “padrinho da Inteligência Artificial” não usa metáforas para assustar crianças. Quando Geoffrey Hinton, um dos responsáveis pelo avanço recente da IA e vencedor do Nobel de Física em 2024, alerta que sistemas cada vez mais capazes podem escapar do nosso controle, ele não apela à ficção científica: descreve uma trajetória técnica e política que já se desenha à nossa frente.
Modelos que aprendem com volumes colossais de dados, alavancados por poder computacional concentrado, exibem comportamentos emergentes que nem mesmo seus criadores antecipam – e, por vezes, não conseguem explicar. A questão que nos interpela, como sociedade, não é “se” a IA mudará tudo, mas quem comandará essa mudança, em nome de quê e sob quais limites.
Hinton tem sido didático na distinção entre riscos de curto e longo prazo. No horizonte imediato, há a corrosão da verdade pública por desinformação sintética, a precarização do trabalho por automação apressada e sem contrapartida social, a militarização da tecnologia em contextos instáveis, a captura de dados em escala industrial por poucas plataformas e a transferência de valor do Sul Global para polos tecnológicos do Norte. No horizonte existencial, paira o problema da alavancagem: sistemas que otimizam objetivos estreitos podem explorar brechas no ambiente – e nas nossas regras – de forma implacável, maximizando métricas que não coincidem com o interesse humano. Não é preciso que as ferramentas de IA “odeiem” os seres humanos: basta que não tenham, por design e por governança, motivos para respeitar limites socialmente pactuados.
Se isso ainda parece abstrato, observe o concreto: cadeias produtivas que começam a depender de “modelos de fundação” opacos, administrações públicas seduzidas por soluções plug and play sem supervisão, escolas pressionadas a terceirizar mediação pedagógica, redações de jornais ameaçadas por conteúdo automatizado de baixo custo, tribunais e órgãos de segurança cortejados por promessas de predição. Quando tecnologia de propósito geral chega sem contrato social, o custo recai sobre os mais vulneráveis. O futuro não é neutro. É direcionado – e, hoje, essa inclinação favorece a concentração de poder.
O Marco Civil da Internet e a LGPD foram passos muito importantes, mas é preciso estruturar um plano nacional de IA
A boa notícia é que também há alavancas humanas. A solução não virá de um único “freio de emergência”, mas de um arranjo robusto de democracia aplicada à tecnologia. Precisamos de licenciamento e auditoria independentes para modelos de fronteira; de testes de segurança e impactos antes do lançamento, com padrões públicos de avaliação; de governança do poder computacional para impedir corridas cegas; de rastreabilidade e rotulagem de conteúdo sintético para proteger a esfera pública; de transparência significativa que chegue a reguladores e à sociedade civil, não apenas a investidores; de responsabilidade civil clara para usos de alto risco; de investimentos públicos em pesquisa aberta, educação e requalificação; e de um pacto redistributivo que converta ganhos de produtividade em bem-estar, não em desemprego ou lucros monopolistas.
Como presidente do Instituto Brasileiro para Regulamentação da Inteligência Artificial (Iria), tenho a obrigação institucional de levar essa reflexão à sociedade. Não se trata de inflar temores, mas de traduzir riscos técnicos em escolhas políticas compreensíveis e negociáveis. Nosso papel é convocar governos, setores produtivos, academia, imprensa e movimentos sociais para um compromisso verificável: transformar a IA de um vetor de assimetria em um instrumento de desenvolvimento inclusivo, com salvaguardas que estejam à altura do poder que estamos desatando.
O Brasil tem trunfos e responsabilidades. Já dispomos de arcabouço relevante em direitos digitais – do Marco Civil da Internet à Lei Geral de Proteção de Dados (LGPD) –, além de um ecossistema de pesquisa respeitado e uma sociedade civil vigilante. Mas é urgente dar o próximo passo: precisamos ter um Plano Nacional de IA que integre metas, prazos e orçamento; um regime de licenciamento para sistemas de alto risco com auditorias antes dos lançamentos e monitoramento contínuo; um programa forte de requalificação profissional e transição justa, para que cada vaga eliminada pela automação seja enfrentada com formação, renda e mobilidade; e uma política industrial para reduzir dependências críticas em infraestrutura de dados, semicondutores, nuvem e modelos de base, estimulando parcerias público-privadas e ciência aberta. No campo informacional, é hora de consolidar mecanismos de proveniência de conteúdo, reforçar salvaguardas eleitorais e criar um sistema nacional de relatos e investigação de incidentes envolvendo IA, com publicidade e reparação.
Há quem diga que é tarde para regular. O que a história ensina é o oposto: toda tecnologia transformadora gerou instituições à sua altura, do Direito do Trabalho à regulação do mercado financeiro. A diferença é que, agora, o relógio corre mais rápido. A corrida por “superinteligência” não pode ser uma disparada ao fundo do poço, em que empresas competem pelo atalho mais arriscado e Estados pela aplicação mais intrusiva. A régua precisa ser pública e global, com coordenação internacional para evitar “paraísos computacionais” e com margem de manobra ao Sul Global, para não repetir dependências coloniais.
A solução, portanto, passa por três compromissos simultâneos: cautela inteligente, ambição social e transparência radical. Cautela inteligente para não subestimar o risco estrutural de sistemas que já demonstram comportamentos opacos; ambição social para levar a tecnologia onde o mercado, sozinho, não levaria (saúde, educação, clima e segurança alimentar); transparência radical para que decisões técnicas com efeitos políticos sejam passíveis de escrutínio. E, onde o risco for inaceitável – como em aplicações autônomas de força letal, manipulação de sistemas biológicos, mineração de perfis políticos em escala –, a regra deve ser proibição ou moratória. Não adianta lançar e “consertar depois”.
Não precisamos escolher entre paralisia e temeridade. Precisamos de governança que aprenda rápido, ajuste rota e priorize vidas. Hinton nos chama a olhar além do fascínio e do pânico, e a fazer aquilo que sociedades maduras fazem diante do desconhecido poderoso: estabelecer limites, distribuir ganhos, proteger os frágeis e manter o controle público. Não é um destino inevitável, é uma decisão coletiva. O algoritmo não vota. Quem vota somos nós. •
*Presidente do Instituto Brasileiro para a Regulamentação da Inteligência Artificial (Iria). Sociólogo e marqueteiro político, fundador da Agência Social Play e CEO da Conect IA. É especialista em IA aplicada na Comunicação Política. Twitter: @SeniseBSB. Instagram: @marcelosenise.
Publicado na edição n° 1384 de CartaCapital, em 22 de outubro de 2025.
Este texto aparece na edição impressa de CartaCapital sob o título ‘Do pânico à ação’
Apoie o jornalismo que chama as coisas pelo nome
Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.
CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.
Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.