BrCidades

A reconstrução democrática no Brasil vai exigir a produção de cidades socialmente justas e ambientalmente viáveis. Este o escopo do Projeto Brasil Cidades.

BrCidades

O reconhecimento facial não resolve os problemas de ordem social

A tecnologia é onerosa, não é precisa, é discriminatória e colabora com o racismo e a transfobia estruturais

Imagem: iStock
Imagem: iStock
Apoie Siga-nos no

Em 21 de junho, uma nova frente de resistência contra a implementação do reconhecimento facial nos espaços públicos foi iniciada. A data escolhida foi uma homenagem a Luís Gama, advogado militante abolicionista, que se utilizou da brecha da lei que extinguiu o tráfico negreiro para lutar pela libertação do povo negro escravizado. A iniciativa nomeada #SaidaMinhaCara trouxe para dentro das casas legislativas em todo Brasil o debate sobre os malefícios de tecnologias vendidas e associadas à ideia de progresso. Mais de 50 parlamentares de diversos partidos políticos apresentaram projetos de lei nas diversas esferas (municipal, estadual e federal), sobre a necessidade de impedir e/ou reverter a implementação dessa tecnologia nos espaços públicos do país.

Os discursos para implementar a tecnologia são os mais apelativos possíveis: cidades inteligentes, “progresso”, coibir crimes, buscar procurados pela justiça, buscar pessoas desaparecidas, dentre outros. Puro marketing. A tecnologia de reconhecimento facial é extremamente onerosa, não é precisa, é discriminatória e colabora com o racismo e a transfobia estruturais da sociedade brasileira, além da vigilância em massa da população.

O reconhecimento facial automatizado funciona a partir da captura, identificação e comparação dos dados biométricos do rosto. Isto é, as suas características físicas ー como a  largura do queixo, a distância entre os olhos, o tamanho da boca etc ー são calculadas e forma-se uma espécie de “assinatura” que identifica uma pessoa. Essa “assinatura” é comparada com outras em um banco de dados. Quando as equações são compatíveis, há o reconhecimento facial e isso ocorre de forma automatizada.  

Acontece que já está mais do que comprovado que a tecnologia tem um grau de precisão maior em homens brancos. No Brasil, um dos países que mais encarceram no mundo ー em especial homens negros ー, movimentos sociais e organizações da sociedade civil questionam a saída tecnológica que tem mais probabilidade de não funcionar quando se tratar de pessoas negras. Os sistemas presentes no mercado possuem uma precisão que varia entre 75,8% e 87,5% quando aplicadas em população racializada, o que tem resultado em diversos erros com graves consequências para a maior parcela da população brasileira. Um match equivocado da máquina pode significar o fim da liberdade de alguém, a ruptura de seus laços sociais, de suas redes de afeto, vínculos e aspirações profissionais. 

O uso de reconhecimento facial pelas instituições públicas, ainda, ameaça gravemente os direitos da população travesti e transexual. Isso porque, nas palavras das pesquisadoras Mariah Rafaela Silva e Joana Varon, “os meios pelos quais uma pessoa se torna (ou é tornada) invisível ou inexistente também ocorre pela aniquilação ou “incongruência” de um ou outros elementos que constituem a própria pragmática dos documentos de identidade. Tais elementos são particularmente caros às pessoas trans e eles são justamente o nome, o sexo (e, portanto, o gênero) e a fotografia (imagem) um estudo mais aprofundado sobre o tema foi produzido pela historiadora Mariah Rafael Silva e pela diretora executiva do Coding Rights Joana Varón intitulado “Reconhecimento Facial no Setor Público e Identidade Trans: tecnopolíticas de controle e ameaça à diversidade de gênero em suas interseccionalidades de raça, classe e território”  . Assim, ao trabalhar com características baseadas em uma visão biológica e binária de gênero, a tecnologia de reconhecimento facial não respeita as identidades transgênero, carregando enorme potencial de segregação e exclusão dessa população, no país que lidera o ranking pelo 13º ano seguido de país que mais mata travestis e transexuais no mundo .

Diversos serviços sociais, como aqueles ligados ao INSS e à carteira nacional de habilitação e serviços de transporte, já se utilizam de reconhecimento facial. Isso significa que se a máquina ou o aplicativo não te reconhecer você poderá perder o benefício e ter privado o acesso a um direito. 

Para além do caráter discriminatório, são várias as controvérsias suscitadas pelo uso desta tecnologia. Uma delas é relacionada à defesa da privacidade e controle do fluxo de informações e dados que circulam sobre nós, em contraposição a tendências de vigilantismo especialmente do Estado e das grandes corporações. O governo chinês, por exemplo, já trabalha para  criação de uma imensa nuvem de dados como registros médicos, reservas de passagem e manifestações em redes sociais, que reúna informações de todos os seus cidadãos. Isso possibilita ao Estado rastrear pessoas, identificar  vontades e desejos, bem como os opositores ao regime. Por sua vez, o governo dos EUA, em uma política de recrudescimento das fronteiras, utiliza de reconhecimento facial para controlar a entrada e saída de imigrantes no país, especialmente daqueles que não possuem seus vistos regularizados.

Essa não é uma experiência isolada. Na Europa, existe uma forte tentativa de se esquivar da Lei de Inteligência Artificial que hoje traz o banimento do reconhecimento facial. Países europeus elaboraram um plano ousado de construção do maior banco de dados de reconhecimento facial do mundo, o chamado Prum II. A ideia é que as autoridades europeias tenham acesso a um banco de dados de reconhecimento facial abastecidos em cooperação por 27 países da União Europeia. Com um nível tão alto de acesso e controle de dados, quem vigia os vigilantes? 

Desde 2019, vimos o aumento do uso de tecnologia de reconhecimento facial nos solos brasileiros, principalmente sob o falacioso argumento de que o avanço tecnológico poderá resolver os problemas de segurança pública no país. Longe de ser uma tecnologia neutra, a ferramenta tecnológica já apresenta erros. Em Salvador, um caso de falso positivo ocorreu com um homem com necessidades especiais, que foi confundido com um assaltante. No Rio de Janeiro, uma mulher foi detida por ter sido confundida com outra que já estava presa. No Piauí, um erro de reconhecimento facial também privou, injustamente, um homem de sua liberdade, sendo transferido do estado para uma prisão no Distrito Federal. Estes não são casos isolados e, não por coincidência, todas essas ocorrências vitimaram pessoas negras.

A iniciativa #SaiDaMInhaCara tenta barrar nas casas legislativas os discursos de viés militar, que se sustentam no avanço do controle social através de mais ferramentas de vigilantismo. Entendemos que o mesmo discurso que propõe “maior segurança”, legitima o cerceamento da privacidade, automatiza a opressão daqueles que já são considerados “suspeitos” e legitima também o controle de dezenas de milhares de dados sensíveis pela iniciativa privada. 

Gigantes como a IBM, Microsoft e Amazon decidiram não venderem mais essa tecnologia às autoridades policiais. Brad Smith, o presidente da Microsoft, afirmou que a tecnologia pode mudar completamente a forma como vivemos, inclusive para pior, e afirmou que “pela primeira vez, o mundo está diante de uma tecnologia que pode dar ao governo a possibilidade de seguir qualquer pessoa, em qualquer lugar, e todo mundo, em todos os lugares”. Aliás, no coração do Vale do Silício, o uso dessa tecnologia para fins públicos, especialmente fins policiais, foi proibido, como em São Francisco e Oakland, Boston, Cambridge dentre outras cidades americanas que também já aderiram a essa tendência. No ano passado, o Parlamento Europeu também votou a favor do banimento do reconhecimento facial. 

No Recife, por meio de Parceria Público Privada (PPP), a Prefeitura autorizou uma concessão para instalação, manutenção e operação de 108 relógios públicos. Esses relógios, além de exibirem o tempo, possuem  câmeras de videomonitoramento e reconhecimento facial. A maior proposta apresentada na licitação foi da empresa Eletromidia, no valor de 100 milhões de reais, pela exploração do serviço de publicidade nos relógios digitais por um período de 20 anos. 

Sem consentimento, a captura de dados biométricos é feita por agentes privados que prestam serviço ao Estado. Quais as garantias de cibersegurança? Quais as garantias de que a empresa que fornece a tecnologia e alimenta o banco de dados não irá se utilizar dos nossos dados biométricos para novas oportunidades de negócios, vendendo os dados coletados? E se houver um vazamento de dados, é possível que os meus dados mais íntimos, ligados à imagem do meu rosto, sejam divulgados e, por meio dele, possam me localizar?

Não se trata de melhorar a tecnologia para se tornar mais precisa. A tecnologia de reconhecimento facial aumenta a vigilância do Estado e das corporações sobre as pessoas que vivem na cidade, contribuindo para uma cidade ainda mais excludente, discriminatória e profundamente neoliberal. A presunção da inocência passa a não valer mais e todos se tornam suspeitos com passos constantemente vigiados, constituindo uma ameaça ao direito de ir e vir, o direito à privacidade, à livre expressão e manifestação sendo, portanto, uma ameaça à democracia. 

Em diversos lugares do mundo surgem resistências à implementação dessa tecnologia nos espaços públicos, especialmente para fins de segurança pública. Em Hong Kong, manifestantes contra o uso de reconhecimento facial nos espaços públicos passaram a utilizar camisetas que confundem a identificação feita pelas máquinas. Nos EUA, o levante negro conhecido mundialmente por sua palavra de ordem “Black Lives Matter” questionou a utilização da ferramenta pela polícia e seu potencial de aperfeiçoar o poder repressivo do Estado contra pessoas negras que protestavam contra o racismo institucional e a violência policial. 

No Brasil, para além da iniciativa #SaidaMinhaCara, existem outras experiências de resistência à expansão da tecnologia de reconhecimento facial como a campanha “Tire meu Rosto da sua Mira”, da Coalizão de Direitos na Rede, e a articulação “Sem Câmera na Minha Cara” de movimentos sociais e organizações da sociedade civil do Recife. 

É urgente refletirmos como as cidades buscam na tecnologia a saída para os seus problemas de ordem social, reforçando estereótipos e intensificando respostas ainda mais discriminatórias. O reconhecimento facial, como ferramenta estimulada nos espaços públicos,  mostra-se como mais uma ferramenta persecutória e excludente

Que o Brasil siga o exemplo de outros lugares no mundo abolindo o uso dessa tecnologia. 

 

Jordana Almeida
Jordana Almeida é mestra em planejamento urbano e regional pelo IPPUR, e advogada popular.

Vanessa Koetz
Advogada. Mestre em Direito Urbanístico pela PUC/SP. Membra do grupo de estudo e pesquisa “Violência em Tempos Sombrios” do Núcleo de Estudos da Violência da USP. É diretora de projetos e pesquisadora da Coding Rights

Tags: ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Um minuto, por favor...

Apoiar o bom jornalismo nunca foi tão importante

Obrigado por ter chegado até aqui. Nós, da CartaCapital, temos o compromisso diário de levar até os leitores um jornalismo crítico, que chama as coisas pelo nome. E sempre alicerçado em dados e fontes confiáveis. Acreditamos que este seja o melhor antídoto contra as fake news e o extremismo que ameaçam a liberdade e a democracia.

Se este combate também é importante para você, junte-se a nós! Contribua, com o quanto que puder. Ou assine e tenha acesso ao conteúdo completo de CartaCapital.

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Um minuto, por favor...

Apoiar o bom jornalismo nunca foi tão importante

Obrigado por ter chegado até aqui. Nós, da CartaCapital, temos o compromisso diário de levar até os leitores um jornalismo crítico, que chama as coisas pelo nome. E sempre alicerçado em dados e fontes confiáveis. Acreditamos que este seja o melhor antídoto contra as fake news e o extremismo que ameaçam a liberdade e a democracia.

Se este combate também é importante para você, junte-se a nós! Contribua, com o quanto que puder. Ou assine e tenha acesso ao conteúdo completo de CartaCapital.