O BBB21 está te acostumando a ser controlado por reconhecimento facial

'Opor-se a mecanismos hi-tech de exploração das nossas vidas faz soar a sirene dos propagandistas do capitalismo'

Foto: Reprodução

Foto: Reprodução

Intervozes

Toda semana, os participantes do Big Brother Brasil 21 fazem o seu mercado dentro da “casa mais vigiada do país”. As “estalecas”, moeda utilizada no programa, são trocadas por alimentos necessários para o consumo diário. Para concluir a transação, os competidores precisam olhar pra tela de um aplicativo que reconhece o seu rosto. Assim são também recebidas as premiações dos chamados “líderes” e “anjos”. E nesse ritmo, os cerca de 40 milhões de brasileiros e brasileiras que assistem ao programa diariamente vão normalizando o hábito de ter que entregar seus dados biométricos – imagens que mapeiam o seu rosto – a uma “fintech” – empresa de serviços financeiros que se utiliza da chamada “inovação tecnológica”.

“Todo mundo usa, todo lugar aceita”. Esse é o slogan da campanha da PicPay, marca patrocinadora do BBB21 que no primeiro trimestre de 2021 viu a base de usuários do seu app crescer 30%, atingindo 50 milhões (dos quais, 37 milhões são considerados clientes ativos). A campanha publicitária no “reality show” da TV Globo custou R$ 50 milhões à fintech, mas tudo indica que foi uma aposta certeira para garantir a penetração do seu serviço de reconhecimento facial lançado em maio de 2020 – o primeiro no setor no país.

O Big Brother é um programa de entretenimento – criado pelo holandês John de Mol Jr. em 1999 e lançado no Brasil em 2001 – que ironiza cinicamente a vigilância e o controle generalizados do cotidiano. O nome remete à obra “1984”, do escritor inglês George Orwell, que representa uma distopia em que a sociedade se vê submetida a um poder totalitário. Ao longo dessas duas décadas, pudemos observar o fortalecimento do “vigilantismo”. Essa ideologia se materializa na generalização do uso de câmeras de monitoramento em espaços privados e públicos, geralmente fundamentada no discurso da “segurança”. A promoção do uso de tecnologias de reconhecimento facial como a que vem sendo incentivada no BBB, porém, inaugura uma nova etapa dessa dinâmica de invasão da privacidade e de controle social, que investe mais especificamente na extração de dados pessoais com fins econômicos.

Nos chamados “reality show”, assim como no BBB, as câmeras se confundem com o olhar do telespectador. Este, ao mesmo tempo em que alimenta seu desejo voyeurista, naturaliza a representação de um cotidiano cercado por dispositivos que capturam imagens da vida das pessoas. A introdução do serviço de pagamento por reconhecimento facial PicPay na dinâmica desse programa normaliza o hábito (ou melhor, promove esse desejo) de entregarmos um “mapa do nosso rosto” toda vez que precisarmos efetuar uma transação financeira. Uma mistura de invasão de privacidade, de coerção consentida, de espoliação de dados e de campanha publicitária de sucesso.

Além de estratégias como a do BBB, na qual se normaliza o funcionamento cotidiano de um mecanismo através da representação dos costumes e da autoidentificação dos telespectadores com os hábitos dos personagens do programa, existem também na sociedade discursos que buscam legitimar a penetração do vigilantismo e dos mecanismos de extração de dados pessoais. Esse tipo de serviço de pagamento com reconhecimento facial, por exemplo, tem encontrado um apelo extra no contexto da pandemia da covid-19, no qual os chamados serviços “contactless” [sem contato] se apresentam como soluções para evitar a circulação do vírus.

A pandemia, aliás, tem contribuído muito para acelerar a inserção de tecnologias intrusivas em nosso cotidiano, como ilustram o georreferenciamento a partir de dispositivos móveis, a utilização de drones para controle da circulação de população e também o uso do reconhecimento facial para cadastramento de pessoas que precisam de apoio, como ocorreu em relação à população em situação de rua de São Paulo.

Assim como o monitoramento por câmera se espalhou nas últimas décadas apoiando-se no medo – no discurso do combate ao crime e ao terrorismo–, essa emoção novamente é mobilizada como um motor para acelerar a aceitação da extração de dados biométricos. Serve-nos de alerta, porém, o fato de que a disseminação do uso de câmeras nas últimas décadas não aumentou a sensação de segurança das pessoas diante do caos social promovido pela dinâmica predatória do capital. Ranking elaborado pela jornalista argentina especializada em tecnologia Natalia Zuazo comprova que as cidades mais seguras do mundo, como Tóquio, Toronto e Nova York, não estão entre as mais vigiadas, ao contrário de Beijing, Cidade do México e São Paulo, onde estima-se haver uma câmera para cada oito habitantes.

Outra estratégia bastante eficiente para legitimar a ofensiva contra a nossa soberania em relação aos dados pessoais tem sido a da inevitabilidade da marcha tecnológica. Opor-se a mecanismos hi-tech de exploração das nossas vidas faz soar a sirene dos propagandistas do capitalismo, os quais logo lançam suas denúncias contra o que chamam de “tecnofobia”, quando o que está em jogo é, na verdade, a democratização do conhecimento, o direito a decidirmos de forma consciente a que fins este deve ser desenvolvido e aplicado e, inclusive, a negar a adoção de determinada tecnologia se necessário.

 

Implicações da disseminação do reconhecimento facial

O chamado “reconhecimento facial” consiste, grosso modo, na captura de rostos humanos, que são dados biométricos sensíveis protegidos, como tal, pela Lei Geral de Proteção de Dados (LGPD). De acordo com ela, toda informação relacionada a pessoa natural identificada ou identificável é dado pessoal. Nos últimos anos, em especial, empresas e governos têm desenvolvido mecanismos que geram códigos atrelados à pessoa, classificando-as por gênero, idade, raça, etnia, preferências e comportamento, além de desenvolverem mecanismos para interpretar suas emoções.

A naturalização do uso de reconhecimento facial para acessar prédios públicos e privados, desbloquear o smartphone ou (a partir de agora) realizar pagamentos, como busca fomentar o PicPay, se dá sem que os riscos sociais e individuais sejam devidamente apresentados, compreendidos e consentidos pela população submetida a essa imposição. No caso de um vazamento dessas informações, o dano não poderá ser revertido, pois não se muda um rosto como se muda uma senha. A hipótese não é muito distante da realidade, tendo em vista a frequência com que dados têm sido vazados no Brasil.

Mas há outras questões que precisam ser destacadas. O uso de tecnologias desse tipo pode ampliar a adoção de práticas discriminatórias. O caso do reconhecimento fotográfico em sede policial, divulgado recentemente pelo Fantástico, mostrou que pessoas negras são as principais vítimas do uso de fotografias como provas, pois têm suas imagens arquivadas e são apontadas como culpadas por crimes que não cometeram. As tecnologias, ademais, não são neutras, incorporam vieses como o de raça desde sua elaboração e durante sua utilização. Sabemos que são pessoas negras e pobres as que são paradas e registradas por policiais. Dados confirmam a reprodução dessa seletividade na utilização do reconhecimento facial. De acordo com monitoramento da Rede de Observatórios da Segurança, das 42 pessoas presas com uso dessa tecnologia, entre janeiro e outubro de 2019, nos estados da Bahia, Rio de Janeiro, Santa Catarina e Paraíba, 90,5% eram negras e 9,5% eram brancas. Além das pessoas negras, as asiáticas, trans e não-binárias são outras que podem ser prejudicadas e punidas indevidamente, pois a tecnologia não é treinada para reconhecê-las.

A captura massiva de imagens possibilitada por meio de tecnologias digitais – seja por agentes privados ou públicos –, como se vê, podem intensificar ações discriminatórias e racistas, o que nos faz recordar as absurdas teses lombrosianas de classificação de criminosos a partir da análise de suas características corporais e psicológicas, além dos genocídios implementados pelo regime nazista. Não é exagero nos mantermos de sobreaviso. A empresa israelense Faception, de TelAviv, por exemplo, divulgou em 2016 que pretende usar seu software de reconhecimento facial para presumir o caráter de uma pessoa, suas características (como inteligência), se é terrorista ou se tem tendência à pedofilia.

 

Enfrentando a questão face a face

Questionamentos levaram à proibição de ferramentas de reconhecimento facial em cidades dos Estados Unidos, como San Francisco, Sommerville, Oakland e Portland. Movimentos pedem suspensão dessa política e outras classificadas como vigilantistas. Reivindica-se que a sociedade debata e estude os efeitos dessas formas de controle social. A própria ONU, em junho de 2020, pediu, por meio do Alto Comissariado para os Direitos Humanos, o impedimento do uso de reconhecimento facial durante protestos pacíficos, enfatizando que essa tecnologia poderia ampliar a discriminação, particularmente contra pessoas de ascendência africana.

Paralelamente, crescem também reivindicações em torno dos direitos à proteção de dados pessoais e à privacidade. No Brasil, a Lei Geral de Proteção de Dados (LGPD) estabelece princípios que orientam a finalidade do tratamento dos dados para propósitos legítimos, específicos, explícitos e informados ao titular, além de restrito ao mínimo necessário.

Na esteira disso, organizações da sociedade civil, entre elas o Intervozes, têm reivindicado respeito à lei, em uma tentativa de frear a adoção de tecnologias vigilantistas que, em geral, vêm sendo implementadas sem debate público. Em março deste ano, resultado de batalha judicial e pressão pública, o governador João Doria (PSDB) acabou vetando projeto de lei que determinava a instalação de câmeras com capacidade de reconhecimento facial em todas as estações e trens do Metrô e da Companhia Paulista de Trens Metropolitanos (CPTM). Em Fortaleza, um pregão para a adoção de reconhecimento facial em todas as escolas públicas foi cancelado no fim de 2020, após questionamentos.

Em outro sentido, também há tentativas de utilização dessas tecnologias para fins positivos. É o caso da ação da Rede de Proteção e Resistência ao Genocídio que instalou câmeras em locais estratégicos da região conhecida como Cracolândia, em São Paulo, para tentar garantir uma proteção no território que está cansado de conviver com abusos policiais. Esse é um exemplo de uma iniciativa que mostra que a tecnologia poderia ter finalidade de garantir a proteção de direitos, mas que está longe de ser a rota hegemônica.

As questões estão postas e precisam ser enfrentadas pela sociedade. A banalização do seu uso como vemos no BBB desconsidera tudo isso para apenas garantir o que tem sido chamado de a próxima tendência dos pagamentos. Por todo o desenvolvimento tecnológico associado à financeirização das últimas décadas, somado à intensa busca por mais formas de extração de dados pessoais, está nítido: o uso da nova tecnologia pode começar nesse setor, mas certamente não irá terminar nele.

Junte-se ao grupo de CartaCapital no Telegram

Um minuto, por favor...

Obrigado por ter chegado até aqui. Combater a desinformação, as mentiras e os ataques às instituições custa tempo e dinheiro. Nós, da CartaCapital, temos o compromisso diário de levar até os leitores um jornalismo crítico, alicerçado em dados e fontes confiáveis. Acreditamos que este seja o melhor antídoto contra as fake news e o extremismo que ameaçam a liberdade e a democracia.

Se você acredita no nosso trabalho, junte-se a nós. Apoie, da maneira que puder. Ou assine e tenha acesso ao conteúdo integral de CartaCapital!

Bruno é mestre em Comunicação e doutor em Sociologia pela UFPE.

Helena é doutora em Comunicação pela UnB e professora da Universidade Federal do Ceará.

Compartilhar postagem