Colunas e blogs

De Oakland ao Jacarezinho: os sistemas de reconhecimento facial precisam ser banidos

O uso de tecnologias de reconhecimento facial têm potencial de aprofundar as já conhecidas violações de direitos humanos e abusos

(Foto: MAURO PIMENTEL / AFP)
Apoie Siga-nos no

Por Sheley Gomes e Iara Moura**

Na manhã da última quarta-feira, 19, a mídia nacional noticiou o início da operação Cidade Integrada, novo projeto de ocupação das favelas do Rio de Janeiro. O lugar de escolha para o lançamento da operação foi justamente o Jacarezinho, alvo de chacina que vitimou 29 pessoas em abril de 2021. À época, os programas policialescos aplaudiram a operação policial mais letal do estado, numa narrativa de propaganda de guerra.

Na atual operação, 1200 homens fortemente armados montaram um cerco enquanto o comandante da polícia e o governador do Rio davam declarações de que tudo corria “pacificamente” e que a operação já poderia ser considerada um “sucesso”. Entre os moradores, o clima é de medo e incertezas.

Em meio ao sensacionalismo bélico e racista que busca construir a falsa narrativa de guerra às drogas, uma informação importante quase passou desapercebida. Parte da estratégia do projeto Cidade Integrada prevê a instalação de câmeras de reconhecimento facial no Jacarezinho. São 22 câmeras em pontos estratégicos da comunidade, conforme apurou o G1. A informação preocupa já que o uso de tecnologias de reconhecimento facial têm potencial de aprofundar as já conhecidas violações de direitos humanos e abusos que estão no cerne dos projetos de militarização. Experiências no Brasil e no mundo comprovam o viés racista, LGBTQIfóbico e violador deste tipo de aplicações que são apresentadas como soluções fáceis para o problema da segurança pública.

Riscos do reconhecimento facial

Segundo levantamento do Instituto Igarapé, a aplicação de reconhecimento facial por polícias, guardas civis e outros órgãos de segurança pública ocorre em pelo menos 30 cidades de 16 estados do país. A partir das eleições municipais de 2020, vislumbra-se um crescimento do fenômeno.

Monitoramento feito pelo Intervozes revelou que, dentre os 26 prefeitos de capitais empossados em janeiro de 2021, 17 apresentaram propostas que, de algum modo, preveem o uso das tecnologias de informação e comunicação na segurança pública. Dentre as ameaças da banalização deste uso está o aprofundamento do racismo.

Estudo da Rede de Observatórios de Segurança monitorou prisões e abordagens feitas com este tipo de tecnologia nos estados da Bahia, Ceará, Paraíba, Rio de Janeiro e Santa Catarina entre março e outubro de 2019. Nos casos em que havia informação sobre raça, 90,5% das abordagens tinham como alvo pessoas negras. As arbitrariedades e violações oriundas do uso da tecnologia chegam a ser jocosas: recentemente, o sistema de reconhecimento facial do Ceará incluiu foto de Michael B. Jordan como suspeito de chacina ocorrida no estado.

O reconhecimento facial ocorre a partir de câmeras comandadas por um algoritmo que localiza o rosto de cada pessoa na imagem, realizando a detecção da face. Após isso, essa face é padronizada — para que haja um critério e outras faces possam ser reconhecidas — e assim o algoritmo passa a detectar as características específicas de cada face que podem ser quantificadas de forma numérica.

Em seguida, após os elementos dos rostos terem sido traduzidos em representações matemáticas, o algoritmo armazena essas informações em um banco de dados e emite uma pontuação que reflete as características avaliadas e compara seu banco de dados com o rosto que está sendo colocado à avaliação.

No entanto, no momento de aprendizagem de máquina, os dados inseridos são definidos por humanos que estão configurando este dispositivo. Portanto, há o entendimento de que a inteligência artificial não é neutra, já que ela aprende e reproduz os comandos inseridos a partir de determinado viés, colocando em risco pessoas já marginalizadas na sociedade.

Outro risco diz respeito aos dados pessoais. Os sistemas de reconhecimento facial contam com poucos recursos de transparência, tanto no que se refere ao funcionamento do algoritmo quanto a questões relacionadas à guarda e manejo dos dados biométricos coletados. No caso do Cidade Integrada, o projeto prevê que uma central de monitoramento seja montada na Cidade da Polícia, sem maiores detalhamentos sobre como se dará os usos destes dados pessoais. Tal situação é preocupante já que uma das excepcionalidades da Lei Geral de Proteção de Dados Pessoais é justamente o tratamento de dados para segurança pública, que deve ser abordado em lei específica. Porém, a Lei deixa explícito que esses setores não podem se eximir das garantias previstas, inclusive a observação da proporcionalidade, da necessidade e do devido processo.

A luta pelo banimento

Partindo do entendimento de que os malefícios e perigos do uso de reconhecimento facial são maiores que seus possíveis benefícios, São Francisco foi a primeira cidade estadunidense a banir o uso de reconhecimento facial por agentes de segurança pública e policiais, em maio de 2019. Segundo os legisladores, o reconhecimento facial poderia exacerbar a injustiça social e ameaçar a possibilidade de uma vida sem vigilância governamental.

Os defensores da proibição apontam que os modelos algorítmicos usados para treinar a tecnologia de reconhecimento facial são feitos, em sua maioria, por homens brancos, aumentando a probabilidade de uma identificação incorreta de pessoas negras. Além disso, para o treinamento da tecnologia, o sistema tem que fazer uma varredura de rostos que circulem por vias públicas, ainda que essas pessoas não saibam disso, levando a um estado de constante vigilância.

A legislação federal nos Estados Unidos tem se esquivado do tema e não chega a um acordo, mas a decisão tomada por São Francisco virou referência, levando outras cidades a optarem pelo banimento do reconhecimento facial, entre as quais Sommerville, no estado de Massachusetts, e, em seguida, Oakland, também na Califórnia.

O exemplo de Oakland

Em 17 de julho de 2019, o Conselho Municipal de Oakland aprovou uma legislação que proíbe o uso de reconhecimento facial por agências. A decisão foi impulsionada por defensores dos direitos digitais, como a União Americana pelas Liberdades Civis (ACLU), e proíbe a cidade de “adquirir, reter, solicitar ou acessar” tecnologias de reconhecimento facial.

O regulamento emenda uma legislação de 2018, que exige que qualquer funcionário municipal obtenha aprovação do presidente da Comissão Consultiva de Privacidade de Oakland antes de “buscar ou solicitar fundos” para tecnologia de vigilância, incluindo no caso de financiamento estadual ou federal.

Em um memorando público, a Presidente do Conselho Municipal de Oakland, Rebecca Kaplan, apontou que a decisão foi baseada na grande taxa de erros da tecnologia, na dificuldade de se estabelecer padrões éticos para seu uso, na sua natureza invasiva e na alta potencialidade para abusos governamentais.

A decisão também foi impulsionada por diversos grupos representantes de comunidades perseguidas pela polícia, por organizações de advogados, pela MediaJustice, assim como pela União Americana pelas Liberdades Civis (ACLU), que aponta que, ao contrário de muitos outros sistemas biométricos, o reconhecimento facial pode ser usado para vigilância geral em combinação com câmeras de vídeo públicas e pode ser usado de forma passiva, sem conhecimento, consentimento ou participação do sujeito.

O maior perigo, conforme a ACLU, é que a tecnologia seja usada para sistemas de vigilância gerais e sem suspeitas. A entidade já havia realizado, em 2019, um experimento com 120 congressistas estadunidenses. Seus rostos foram enviados ao sistema Rekognition, da Amazon, e foram comparados com os rostos de 25 mil fichas criminais. No resultado, 28 políticos foram reconhecidos erroneamente como “fichados”, sendo sua maioria pessoas racializadas.

Em conversa com o Intervozes e com a Coalizão Direitos na Rede, Steven Renderos, da organização MediaJustice, defendeu que é necessário o fomento ao debate sobre os diversos problemas causados pelo reconhecimento, a fim de estabelecer uma consciência na população acerca do caráter perigoso, racista e vigilantista desses sistemas.

O banimento desse tipo de tecnologia garante a não-utilização de um recurso que atualiza o viés racista do Estado, especialmente da segurança pública, baseado em prerrogativas falsas de evolução tecnológica ou de ampliação da segurança, mas que, em verdade, corresponde a um sistema repleto de falhas e incoerências. Dessa forma, é urgente uma regulação no Brasil que siga os passos de Oakland e demais cidades e impeça o uso do reconhecimento facial, tanto nos estados e municípios quanto em âmbito nacional.

*Sheley Gomes é cientista política; atuou como consultora de incidência do Intervozes.
*Iara Moura é coordenadora executiva do Intervozes.

 

ENTENDA MAIS SOBRE: , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Um minuto, por favor…

O bolsonarismo perdeu a batalha das urnas, mas não está morto.

Diante de um país tão dividido e arrasado, é preciso centrar esforços em uma reconstrução.

Seu apoio, leitor, será ainda mais fundamental.

Se você valoriza o bom jornalismo, ajude CartaCapital a seguir lutando por um novo Brasil.

Assine a edição semanal da revista;

Ou contribua, com o quanto puder.