Sociedade

Erros em série expõem fragilidade do reconhecimento facial como ferramenta de combate ao crime

Pesquisas indicam que os sistemas de reconhecimento facial estão longe de ser neutros, apresentando viés racista em seus resultados; no Brasil, estima-se que 90% dos detidos pela tecnologia sejam negros

Fernando Frazão/Agência Brasil
Apoie Siga-nos no

O dia tinha tudo para ser especial. Após semanas de espera, o personal trainer João Antônio Trindade, de 23 anos, finalmente assistiria à disputa histórica entre Sergipe e Confiança, seu time do coração, na final do Campeonato Sergipano, em Aracaju, no sábado 13.

No entanto, um ‘erro’ cometido pelo sistema de reconhecimento facial da Secretaria Estadual de Segurança Pública, impediu que a vitória se tornasse uma boa memória daquele dia. No intervalo da partida, João foi abordado por cerca de cinco policiais militares que o confundiram – com base na ferramenta – com um foragido.

O personal trainer relatou à CartaCapital que, sem explicar o motivo da abordagem, os agentes simplesmente instruíram-no a não reagir, colocar as mãos para trás e obedecer às ordens. Ele até tentou se identificar, dizendo seu nome na esperança de esclarecer se era realmente quem os policiais procuravam. Não adiantou: foi revistado e levado para uma sala de apoio da PM.

O equívoco foi percebido apenas depois que João Antônio apresentou seus documentos. “Perguntaram meu nome e me deram a última chance de dizer a verdade”, lembra ele, “pois eu teria sido reconhecido por um sistema de reconhecimento facial ‘que dificilmente erra’.”. Após um pedido de desculpas dos policiais, o jovem foi liberado e retornou à arquibancada.

Com a repercussão do caso, o governador Fábio Mitidieri (PSD) mandou suspender o uso do mecanismo até a implantação de um novo protocolo. O advogado João Gabriel Lima, que representa o personal trainer, confirmou à reportagem que a defesa estuda ingressar com um pedido de indenização por danos morais contra o Estado. No radar também está a possibilidade de solicitar um procedimento disciplinar contra os agentes envolvidos no caso.

“Erros como esse não podem continuar existindo. Não se pode usar casos de sucesso, nos quais foram encontrados foragidos da Justiça, para sobrepor ou diminuir casos de falhas, como ocorreu”, completa.

Essa não é, de fato, a primeira vez que uma falha desse tipo acontece na polícia sergipana. Há cinco meses, a auxiliar administrativa Thaís Santos, de 31 anos, passou por situação semelhante durante o Pré-Caju, tradicional prévia carnavalesca que acontece na capital sergipana em novembro.

Mais uma vez, um erro no sistema de reconhecimento fez a jovem ser confundida duas vezes com uma foragida da Justiça.

Meia hora após chegar ao evento, ela foi abordada por quatro PMs que estavam à paisana. Solicitaram seu documento de identidade e afirmaram que aquele era o protocolo de segurança da corporação. Thaís foi liberada logo após a confirmação de que ela não era a criminosa procurada. “Ela sequer se parecia comigo”, relembra.

Duas horas depois, enquanto curtia o show da cantora Ivete Sangalo, quatro policiais voltaram a abordá-la. Dessa vez, de forma violenta e com brutalidade, exigindo que ela colocasse as mãos para trás para ser algemada. Em meio ao desespero, a mulher chegou a urinar na roupa.

“Fui conduzida para o camburão da polícia como uma marginal, como todo mundo ali presenciando todo o constrangimento pelo qual eu estava passando. Nunca fui tão humilhada em minha vida, sem nunca ter feito nada de errado na vida”, conta Thaís. “Fui discriminada publicamente por ser pobre e preta“.

CartaCapital perguntou à Secretaria de Segurança Pública de Sergipe quais medidas foram adotadas para evitar que equívocos dessa natureza aconteçam. Também questionamos a pasta sobre eventuais procedimentos para investigar a conduta dos agentes envolvidos na abordagem a João Antônio.

Após a publicação da reportagem, a SSP informou em nota que o sistema de reconhecimento facial é “estratégico em grandes eventos” e que “sempre revisa os protocolos de execução para que erros sejam minimizados ou até mesmo extintos”.

No caso envolvendo o torcedor do Confiança, disse a pasta, o secretário João Eloy se colocou à disposição da vítima “para realizar um pedido formal de desculpas” e destacou que os protocolos estão sendo analisados e aperfeiçoados constantemente.

“As abordagens decorrentes dos alertas da ferramenta que não se concretizam não são consideradas erro de execução da ferramenta, visto que ela aponta similaridades faciais, restando a identificação civil a única forma de comprovar se tratar da mesma pessoa”, acrescenta a nota.

As câmeras usadas pela SSP de Sergipe possuem IA, que comparam traços dos rostos filmados àqueles presentes em bancos de dados. A ferramenta levou PMs a erro em duas abordagens recentes – Reprodução/Internet/Secretaria de Segurança Pública de Sergipe

Um problema nacional

João Antônio e Thaís representam apenas dois dos muitos brasileiros que sofreram com falhas dos sistemas de reconhecimento facial, usados no país desde 2019 em pelo menos 16 estados. Promovidos pelas autoridades como ferramenta eficaz para identificar criminosos, esses sistemas estão cercados de controvérsias.

Pesquisas indicam, por exemplo, que esses sistemas estão longe de serem neutros: o reconhecimento facial também é atravessado por vieses racistas.

Um estudo realizado nos Estados Unidos em 2019 revelou que asiáticos e afro-americanos apresentavam taxas de “falso positivo” em sistemas de reconhecimento facial até 100 vezes superiores às de pessoas brancas. O mesmo levantamento constatou que os algoritmos identificavam incorretamente o gênero de mulheres negras em quase 35% dos casos.

No Brasil, um estudo promovido pela Rede de Observatórios da Segurança analisou prisões efetuadas com base na tecnologia em quatros estados – Bahia, Rio de Janeiro, Santa Catarina e Paraíba – e constatou que mais de 90% dos detidos eram negros.

A criminalista Maíra Fernandes, que coordena o Departamento de Novas Tecnologias e Direito Penal do Instituto Brasileiro de Ciências Criminais, considera a tecnologia “absolutamente falha” e uma ferramenta para perpetuar a discriminação.

“Essas tecnologias carregam vieses da sociedade em que foram desenvolvidas”, avalia. “Quem alimenta o sistema? Quem o desenvolve? Quem o utiliza? São pessoas. E os dados utilizados neles têm, na maior parte das vezes, esse viés discriminatório, que reproduz uma política de segurança que sempre foi racista”.

Até o momento, o Brasil não possui lei específica a regular o reconhecimento facial. As diretrizes de proteção de dados pessoais estão na Lei Geral de Proteção de Dados Pessoais, em vigor desde 2020, mas não valem nos tratamentos de dados para fins de segurança pública ou defesa nacional.

No Congresso Nacional, um projeto de lei apresentado pelo ex-deputado Subtenente Gonzaga (PSD-MG) tenta regulamentar o uso da tecnologia em investigações criminais. A proposta, que proíbe a utilização do reconhecimento sirva, isoladamente, para prisões e denúncias, foi aprovada na Comissão de Segurança Pública e aguarda votação na CCJ da Câmara.

A Polícia Militar do Rio intensificou o uso da ferramenta no Revéillon 2024, em Copacabana. Ocorre que, das quatro prisões feitas com base no programa de captação de imagens durante as festas de final de ano, duas acabaram anuladas poucos dias depois porque estavam inválidas.

As falhas, informou a Secretaria de Segurança Pública à época, “podem ocorrer por uma questão de atualização dos bancos de dados”. O governo estadual estendeu sua aplicação e hoje praias, túneis e vias expressas da capital fluminense são monitorados diariamente com a ferramenta – um custo estimado em 180 milhões de reais.

Sob alegação de coibir roubos, o Metrô de São Paulo começou a implantação do sistema de reconhecimento facial em 2022. A medida chegou a ser barrada pela Justiça que, posteriormente, liberou o uso. Ainda assim, a ViaQuatro, concessionária responsável pela Linha 4 (Amarela), teve de pagar indenização de 500 mil reais por captar, sem consentimento, imagens dos usuários com fins comerciais e publicitários.

No ano passado, o prefeito Ricardo Nunes (MDB) autorizou a instalação de câmeras de reconhecimento facial no Centro da capital paulista, no bojo do projeto Smart Sampa, que prevê 20 mil equipamento até o final de 2024. A prefeitura pagará 9,8 milhões de reais todo mês a um consórcio de empresas que ficou em terceiro lugar na disputa pela licitação.

O mais amplo programa de reconhecimento facial na segurança pública no País é o da Bahia, cujo gasto deve chegar a 665 milhões, até julho de 2026. Atualmente, há 3.110 câmeras com reconhecimento facial em 81 municípios, incluindo Salvador – e o projeto está em expansão.

A título de comparação, o valor investido pelo governo estadual daria para bancar a compra de 1,5 mil ambulâncias com UTI móvel, construir 300 Unidades de Pronto Atendimento (UPAs) ou até custear um hospital de referência por cerca de 32 anos.

Até o ano passado, a Secretaria de Segurança Pública contabilizava mais de 1.500 detidos com ajuda da tecnologia, que cruza imagens do rosto dos suspeitos com informações registradas no Banco Nacional de Mandados de Prisão, mantido pelo Conselho Nacional de Justiça.

Ainda assim, pesquisadores contestam a eficácia desse recurso, à luz de casos em que houve erro nesses dados.

Um deles aconteceu durante a festa junina de 2022, em Salvador. Trata-se de um homem negro preso enquanto chegava no Parque de Exposições da capital com a esposa e o filho, para aproveitar o evento. O vigilante ficou preso injustamente por 26 dias sob acusação de roubo.

O crime que levou o trabalhador à prisão foi cometido dez anos antes dele ser preso, por outra pessoa. O verdadeiro responsável foi preso em flagrante e usou o nome do vigilante e as próprias digitais para se identificar – ele foi solto em 2013, e depois condenado a cinco anos e quatro meses de prisão.

Com isso, um mandado de prisão foi inserido no sistema, com o nome do vigilante. Na época em que houve a prisão, a Secretaria disse que as câmeras com reconhecimento facial constataram 95% de similaridade entre ele e a pessoa que deveria ser presa.

Um relatório divulgado no ano passado pelo Panóptico, projeto do Centro de Estudo de Segurança e Cidadania que monitora o uso da tecnologia, aponta acusações injustas e abordagens discriminatórias por policiais baianos, especialmente de pessoas negras e de minorias étnicas.

Termos como “estilo de cabelo” e “estilo inferior” foram listados como parâmetros para o reconhecimento facial, segundo a primeira versão do termo de referência do projeto, assinado pelo secretário Maurício Barbosa – ao sugerir a identificação desses aspectos, avalia o relatório, deixa evidente que o racismo é um “requisito operacional do software utilizado pelo governo da Bahia”.

No Ceará, o sistema de reconhecimento facial também falhou e chegou a incluir o ator norte-americano Michael B. Jordan. conhecido mundialmente por protagonizar filmes como Creed Pantera Negra, na lista de suspeitos por uma chacina ocorrida em 2021, em Fortaleza.

À época, a Polícia Civil disse que a estratégia de reconhecimento facial era “apenas uma das etapas que podem levar ao indiciamento de um acusado”. A corporação pontuou ainda que faz uso de depoimentos de testemunhas, além de perícias técnicas nos locais de crime, como coleta de impressões digitais e análise de câmeras de segurança, para desvendar crimes.

O mecanismo é utilizado no estado através de uma parceria entre a Secretaria de Segurança Pública e Defesa Social e o Laboratório de Processamento de Imagem, Sinais e Computação Aplicada (Lapisco), vinculado ao Instituto Federal de Educação, Ciência e Tecnologia do Ceará.

Pablo Nunes, coordenador do Centro de Estudo de Segurança e Cidadania e doutor em Ciência Política, vê o crescimento do uso do reconhecimento facial no Brasil como uma “solução caseira” para um problema complexo: a sensação de insegurança da população. “Vamos instalar câmeras, elas vão ver tudo, identificar os criminosos e eles serão presos. Parece sedutor, né?” questiona.

No entanto, ressalta ele, este avanço está ocorrendo sem um debate aprofundado sobre os riscos e impactos, especialmente sobre população negra. “Já existe um enviesamento racial na política de segurança pública, no sistema criminal brasileiro… Com essa tecnologia, que repete e produz seus próprios vieses, há um erro potencializado”, lamenta. “Temos, então, uma tempestade perfeita.”

ENTENDA MAIS SOBRE: , , , , , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Um minuto, por favor…

O bolsonarismo perdeu a batalha das urnas, mas não está morto.

Diante de um país tão dividido e arrasado, é preciso centrar esforços em uma reconstrução.

Seu apoio, leitor, será ainda mais fundamental.

Se você valoriza o bom jornalismo, ajude CartaCapital a seguir lutando por um novo Brasil.

Assine a edição semanal da revista;

Ou contribua, com o quanto puder.

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo