Artigo
Nem vilã, nem heroína: quem decide o papel da IA é a governança
Define o papel da Inteligência Artificial na sociedade é quem tem poder de governança: governos ou grandes empresas
Com os rápidos avanços tecnológicos, o debate sobre os riscos da inteligência artificial para a sociedade ganhou força – e, com ele, uma polarização que mais confunde do que esclarece. De um lado, estão os entusiastas que enxergam apenas benefícios e tratam qualquer regulação como entrave ao progresso. Do outro, os que veem na IA uma ameaça inevitável: destruidora de empregos, fábrica de desinformação, inimiga da verdade. O fato é que nenhuma dessas visões, isoladamente, dá conta da complexidade do problema.
Esse tipo de reação não é novidade. O advogado e historiador Jacob Mchangama mostra que, sempre que há uma expansão da esfera pública – seja pela invenção do telégrafo e do rádio, pela extensão do direito ao voto a novos grupos ou, hoje, pelas redes sociais e pela IA – emerge o que ele chama de “pânico da elite”. Tomadores de decisão, convencidos pela lógica tecnocrata de que os cidadãos comuns são incapazes de exercer pensamento crítico, passam a defender o controle das informações que chegam ao público.
Quando governos ou plataformas assumem esse papel – decidindo o que pode ou não circular – o remédio pode ser pior do que a doença. A concentração de poder sobre os fluxos de informação, seja nas mãos do Estado ou de corporações privadas, não protege a democracia, mas sim a enfraquece. Historicamente, os instrumentos criados para “proteger” o cidadão da informação “perigosa” foram usados, com muito mais frequência, para silenciar dissidências, criminalizar movimentos sociais e blindar quem já está no poder.
A realidade é que esse maniqueísmo sobre os impactos da IA no debate público empobrece a discussão. A internet não é terra sem lei, e ninguém defende que os impactos negativos do uso irresponsável da IA devam ser ignorados. O ponto é outro: restringir a tecnologia de forma ampla e centralizada, em vez de responsabilizar os usos concretos que causam danos reais, é um equívoco que costuma recair desproporcionalmente sobre os mais vulneráveis.
As teorias regulatórias mais avançadas apontam para um caminho diferente. Dialogando com a tradição sociológica francesa, que valoriza a capacidade reflexiva do indivíduo, essas abordagens defendem uma governança policêntrica da internet: distribuída, plural, com múltiplos centros de poder e controle. Nesse modelo, nenhum ator isolado – nem o Estado, nem as plataformas – detém o monopólio de decidir o que é verdade ou o que pode ser dito.
Governança digital de qualidade precisa colocar a autonomia das pessoas no centro. Isso significa garantir que os indivíduos tenham condições reais de fazer seus próprios julgamentos sobre o conteúdo ao qual são expostos, o que exige não apenas liberdade formal, mas acesso à educação midiática, transparência sobre o funcionamento dos algoritmos e mecanismos de responsabilização claros, pontuais e sujeitos a controle público.
Usos deliberadamente criminosos da tecnologia devem ter consequências legais, mas essas consequências precisam ser definidas com limites precisos, sob escrutínio democrático, e não delegadas ao arbítrio de plataformas ou de governos sem freios.
A IA não é vilã nem heroína. O que define seu papel na sociedade é quem tem poder sobre ela – e quem fica de fora dessa decisão.
A opinião de colunistas e articulistas não representa, necessariamente, a opinião de CartaCapital.
2026 já começou
Às vésperas das eleições de 2026, o País volta a encarar um ponto de inflexão: o futuro democrático está novamente em jogo.
A ameaça bolsonarista não foi derrotada, apenas recuou. No Congresso, forças conservadoras seguem ditando o ritmo. Lá fora, o avanço da extrema-direita e os conflitos em Gaza, no Irã e na Ucrânia agravam a instabilidade global.
Se você valoriza o jornalismo crítico, independente e comprometido com a democracia, este é o momento de agir.
Assine ou contribua com o quanto puder.



