Europa avança para o banimento do reconhecimento facial

As autoridades afirmam compreender a importância do uso de IA, mas acreditam ser necessária uma regulamentação anterior

Foto: pexels.com/Burst.

Foto: pexels.com/Burst.

Intervozes

O Comitê Europeu de Proteção de Dados (EDPB) e a Autoridade Europeia para a Proteção de Dados (EDPS), da União Europeia, apresentaram nesta semana uma opinião conjunta que sugere o banimento do reconhecimento de pessoas em espaços públicos através do uso de Inteligência Artificial (IA). De acordo com as autoridades, a suspensão do uso dessas tecnologias é medida necessária para a garantia dos direitos de privacidade da população.

A recomendação, apresentada ao Comitê Europeu de Propostas de Regulação (European Commission’s Proposal for a Regulation – EC), é expressa em resposta ao conjunto de regulamentos apresentados pelo EC que visam combater o mal uso da Inteligência Artificial. De acordo com a orientação publicada, o texto não foi suficiente para abranger todas as medidas necessárias ao tema.

Na opinião divulgada pelas autoridades, a sugestão é o total banimento do uso de Inteligência Artificial para o reconhecimento de pessoas em espaços públicos, já que há elevados riscos a direitos fundamentais. As autoridades afirmam compreender a importância do uso de IA, mas acreditam ser necessária uma regulamentação anterior, a fim de proteger os direitos dos cidadãos.

Dentre as proibições, devem-se incluir “o reconhecimento automatizado de características humanas, como reconhecimento de rostos, formas de andar, impressões digitais, DNA, voz e outros sinais biométricos ou comportamentais, em qualquer contexto”.

No mesmo sentido, também recomenda-se a proibição de sistemas de Inteligência Artificial “que utilizem biometria para categorizar indivíduos em grupos com base em sua etnia, sexo, orientação política ou sexual ou outros motivos pelos quais a discriminação é proibida à luz do artigo 21 da Carta dos Direitos Fundamentais.”.

Finalmente, também é recomendado o banimento de IA para inferir expressões faciais, exceto em casos muito específicos, como os de saúde. Mas no que se refere a qualquer tipo de classificação ou pontuação social, seu uso é desencorajado.

A presidente do EDPB, Andreia Jelinek e Wojciech Wiewiórowski, da EDPS, afirmaram que o uso de tecnologias de reconhecimento facial, identificação biométrica e outros mecanismos de vigilância, ferem os direitos e liberdades individuais em sua essência e extinguem o anonimato em espaços públicos.

Dessa maneira, a melhor forma de garantir a aplicação desses direitos é através do total banimento do uso dessas tecnologias até que se crie uma base legal voltada à perspectiva dos cidadãos. Eles ressaltaram também a importância de reconhecer que esses mecanismos de vigilância abrem espaço para a discriminação e por isso devem ser banidos neste momento.

 

Direitos em risco

O Comitê Europeu de Proteção de Dados (EDPB) engloba todas as autoridades nacionais de proteção de dados da União Europeia e foi estabelecido pelo Regulamento Geral sobre a Proteção de Dados (RGPD). Sua missão é garantir a aplicação do RGPD na União Europeia e também da Diretiva de Proteção de Dados no setor policial.

Já a Autoridade Europeia para a Proteção de Dados (EDPS) é o órgão responsável por monitorar o Comitê Europeu e outras instituições da UE no que se refere ao uso dos dados pessoais do cidadão, visando que seu direito à privacidade seja respeitado.

Os dois órgãos não possuem prerrogativa de criar ou modificar as legislações. Contudo, eles são as principais autoridades no que se refere ao aconselhamento à União Europeia em questões de privacidade e suas orientações são muito estimadas dentro do parlamento europeu.

É por esse motivo que a publicação apresentada pelos órgãos se refere apenas a um aconselhamento das modificações legais e não uma alteração direta à legislação.

Há alguns meses, a Comissão Europeia (EC) propôs uma regulação que limita o uso de Inteligência Artificial, com possíveis implicações globais ao uso dessas tecnologias. O extenso documento engloba diversas questões sobre o tema, mas ainda foi considerado insuficiente pelos comitês de regulação.

Nas mais de 100 páginas do texto, os legisladores europeus buscaram fornecer regras “harmonizadas” para os estados membros da União Europeia, assim como as sanções cabíveis ao seu descumprimento. Dentre as medidas, vale destacar a classificação dos sistemas de reconhecimento, remotos e em tempo real, como de alto risco.

O texto ressalta que as pessoas possuem o direito de saber em que medidas esses dados vêm sendo coletados e de que forma são armazenados e utilizados pelas autoridades – inclusive as policiais.

Desde o ano passado, o debate acerca do tema já havia sido abordado no cenário europeu, tendo o uso de Inteligência Artificial para vigilância em massa pelas autoridades policiais sido proibido no Reino Unido.

Dentre outras maneiras de utilização de IA classificadas enquanto “alto risco”, estão incluídas avaliações de pontuação de crédito e controle de fronteiras. Já no que se refere às proibições, está a utilização desses sistemas para aplicações legais, sistemas que permitam formas de “pontuações sociais” pelos governos e técnicas de manipulação de comportamento habilitadas para IA que podem causar danos físicos ou psicológicos.

Vale ressaltar ainda que a legislação estabelece a Autoridade Europeia para a Proteção de Dados (EDPS) como autoridade de fiscalização de mercado, destinada a supervisionar instituições, agências e organismos da União, ainda que falte clareza em quais seriam suas atribuições.

Já no que se refere às multas aplicáveis às empresas, em caso de descumprimento da norma, a taxa a ser paga seria de 6% de seu faturamento global ou 30 milhões de euros, o que for mais alto.

Ainda assim, como explicado pelas autoridades posteriormente, a legislação apresentada é insuficiente para cumprir o esperado já que, pela ótica da proposta, diversos usos de Inteligência Artificial não passam por regulamentação ou proibição, apenas são classificados enquanto “alto risco”.

 

Implicações globais

A preocupação dos legisladores europeus não é à toa e não diz respeito a uma realidade de vigilância e controle restrita à Europa. Em toda a América Latina e no Brasil, as políticas públicas de smart cities, segurança pública e os modelos de negócio baseados na vigilância e coleta de dados pessoais tem crescido. De projetos de lei a medidas do Executivo, a utilização de tecnologias de vigilância vem se espalhando em mais de 30 cidades e 16 estados do país. Conforme já analisamos neste blog este foi assunto destaque nos programas de governo dos candidatos que disputaram as eleições municipais em 2020. Câmeras em ônibus, terminais rodoviários e nas ruas, utilização de drones, tecnologias de reconhecimento facial e de comportamento, com a justificativa de segurança, fomentam um aumento do controle e colocam em risco direitos fundamentais como a privacidade e a não discriminação por raça/etnia e origem social no acesso a serviços ou produtos.

Em uma sociedade historicamente racista, em que a população negra e vulnerabilizada já é o principal alvo de polícias e órgãos de segurança pública, a utilização deste tipo de tecnologia atualiza práticas punitivistas através de sistemas inadequados conforme enfatiza Mariana Gomes, jornalista e co-fundadora da Plataforma Conexão Malunga. Em análise sobre o tema da vigilância, a ativista e pesquisadora nos incita a perguntar:

“Quais experiências de liberdade permitiremos daqui para frente? Já é mais que necessário abrir espaço nos altos postos de decisões para os saberes pioneiros das comunidades tradicionais, indígenas e negras, de LGBTs e mulheres em relação à miríade da vigilância”.

Nesse sentido, a decisão europeia promove uma reflexão na contramão de medidas tomadas em quase todo o mundo e é um importante passo para repensar o uso desenfreado de Inteligência Artificial em espaços públicos e a coleta de dados pessoais sem o consentimento livre e informado da população. Que seja exemplar para os órgãos competentes e para as discussões aqui no Brasil sobre proteção de dados pessoais, vigilância e direitos humanos.

Junte-se ao grupo de CartaCapital no Telegram

Um minuto, por favor...

Obrigado por ter chegado até aqui. Combater a desinformação, as mentiras e os ataques às instituições custa tempo e dinheiro. Nós, da CartaCapital, temos o compromisso diário de levar até os leitores um jornalismo crítico, alicerçado em dados e fontes confiáveis. Acreditamos que este seja o melhor antídoto contra as fake news e o extremismo que ameaçam a liberdade e a democracia.

Se você acredita no nosso trabalho, junte-se a nós. Apoie, da maneira que puder. Ou assine e tenha acesso ao conteúdo integral de CartaCapital!

Cientista política e consultora de incidência do Intervozes

Compartilhar postagem