Sociedade

Fotos de crianças brasileiras são usadas por IA de forma indevida

Organização internacional encontrou 170 imagens em banco de dados

Fotos de crianças brasileiras são usadas por IA de forma indevida
Fotos de crianças brasileiras são usadas por IA de forma indevida
Foto: PAU BARRENA / AFP
Apoie Siga-nos no

Um levantamento da organização internacional Human Rights Watch identificou uso de fotos pessoais de crianças e adolescentes brasileiros por ferramentas de inteligência artificial (IA). De acordo com a entidade, as imagens foram retiradas de sites e mídias sociais sem consentimento.

A entidade encontrou 170 fotos de crianças de pelo menos 10 estados, que retratam momentos de nascimento de bebês, festas de aniversário e apresentações em escolas.

As imagens estão em um banco de dados chamado LAION-5B, utilizado para o treinamento das ferramentas de IA. Segundo a organização, o percentual é baixo diante da dimensão do acervo do banco, que passa de 5 bilhões de imagens, porém acende um alerta.

“Algumas dessas fotos foram postadas por crianças e adolescentes, seus pais ou familiares em blogs pessoais e sites de compartilhamento de fotos e vídeos. Algumas foram postadas anos ou até mesmo uma década”, diz nota da Human Righs Watch.

Deepfakes

A pesquisadora de Direitos da Criança e Tecnologia da Human Rights Watch, Hye Jung Han, explica que a inteligência artificial permite a criação de imagens e cenas realistas em questão de segundos, gratuitamente e de forma fácil. Com isso, muitas das fotos são base para o desenvolvimento de deepfakes não consensuais e nocivas, que circulam na internet.

A deepfake permite a adulteração de vídeos e fotos por meio de inteligência artificial. Um exemplo, é trocar rostos das pessoas em um vídeo ou mudar a fala.

Segundo a Human Rights Watch, as fotos das crianças brasileiras não estão disponíveis por meio de pesquisa online e foram postadas há anos, até mesmo antes da criação do banco de imagens. O acesso a elas pelas ferramentas de IA revela que houve falha por parte de grandes empresas e mídias sociais em proteger a privacidade dos usuários.

A organização informou que a instituição alemã responsável pelo LAION-5B “confirmou que o conjunto de dados continha as fotos pessoais das crianças encontradas pela Human Rights Watch e se comprometeu a removê-las. Ela contestou que os modelos de IA treinados no LAION-5B pudessem reproduzir dados pessoais literalmente. A LAION também disse que as crianças e seus pais são responsáveis por remover suas fotos pessoais da Internet, argumentando ser a proteção mais eficaz contra o uso indevido”.

A coordenadora do Programa Criança e Consumo do Instituto Alana, Maria Mello, defende a aplicação da legislação no mundo virtual para proteção dos usuários.

“É importante e bem-vinda a inclusão de novos direitos a partir dos desafios colocados em relação ao ambiente digital, incluindo da inteligência artificial. A gente precisa garantir o dever de cuidado com crianças e adolescentes, quando são os públicos mais afetados”, disse a pesquisadora em entrevista à TV Brasil.

ENTENDA MAIS SOBRE: , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.

O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.

Estamos aqui, há 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.

Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.

Quero apoiar

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo