Cultura

cadastre-se e leia

Cientista alerta para riscos na criação de máquinas que podem superar nossa capacidade de decidir

‘A chegada da IA superinteligente é, em muitos sentidos, análoga à chegada de uma civilização alienígena superior, mas muito mais provável’

Realidade. Os drones com câmera e algorítimos de visão computadorizada, que dispensam a supervisão humana, são um dos assuntos do livro do pesquisador – Imagem: iStockphoto e Cia das Letras
Apoie Siga-nos no

Em 1951, Alan Turing, o pai da computação, escreveu: “Depois que o método de pensamento por máquinas começar, não demorará muito para superar os nossos frágeis poderes. (…) Em algum ponto, portanto, devemos esperar que as máquinas assumam o controle”.

Tal afirmação ainda martela na cabeça do cientista da computação inglês ­Stuart Russell, autor do recém-lançado ­Inteligência Artificial a Nosso ­Favor – ­Como Manter o Controle Sobre a ­Tecnologia (Companhia das Letras, 336 págs., 99,90 reais). Professor na Universidade da Califórnia, em Berkeley, nos Estados Unidos, Russell é o nome mais popular do mundo quando o assunto é Inteligência Artificial (IA).

Mas a sua causa não é exatamente o desenvolvimento da IA, e sim como podemos nos proteger dos riscos implicados na criação de máquinas que superem a capacidade humana de tomar decisões. “A chegada da IA superinteligente é, em muitos sentidos, análoga à chegada de uma civilização alienígena superior, mas muito mais provável”, escreve ele.

“Armas letais autônomas podem ser lançadas aos milhões para matar seletivamente populações inteiras”

Hoje, a mesma IA que possibilita a existência de pernas que se locomovem tão agilmente quanto as humanas permite que armas localizem, selecionem e ataquem alvos sem a supervisão do homem. É também a IA que cria os algoritmos das redes sociais. Nesta entrevista, concedida a CartaCapital por e-mail, Russell tenta, de forma paciente, conduzir os leigos por essa trilha tão inóspita quanto instigante.

CartaCapital: O título e subtítulo do seu livro remetem à ideia de que a IA é uma ameaça à nossa sociedade. Até que ponto de fato é?
Stuart Russell: O uso errôneo da tecnologia de IA já nos cria problemas, como a exacerbação do viés racial e de gênero, maior vigilância e controle, automação de empregos, manipulação e desinformação por meio de algoritmos de redes sociais e, agora, armas letais autônomas. Mas a principal questão que abordo é que estamos investindo enormes recursos financeiros e intelectuais tentando criar máquinas que tenham uma inteligência maior e sejam mais poderosas do que nós. Como poderemos manter o controle delas para sempre? Se falharmos, nossa sobrevivência não estará mais em nossas mãos. Estaríamos na mesma posição que os gorilas em relação aos humanos.

CC: Acredito que para alguns leitores, assim como para mim, o conceito de Inteligência Artificial não é totalmente palpável. Como a IA se relaciona com a ideia de robôs exterminadores?
SR: A ideia de dispositivos de morte mecanizados não veio da IA. Bombas ocultas e minas terrestres existem há séculos e matam sem envolvimento humano direto. As armas letais autônomas dão um passo além: enquanto a mina terrestre usa um sensor de pressão, o drone autônomo usa uma câmera e algoritmos de visão computadorizada para detectar alvos potenciais. O mundo está rapidamente avançando para uma nova era com armas que, por não exigirem supervisão humana, podem ser lançadas aos milhões para matar seletivamente populações inteiras. Fico feliz em saber que o Brasil apoia um tratado para proibi-las. Os exterminadores combinam a ideia de armas letais autônomas com a de consciência maléfica espontânea em máquinas, o que é absurdo. Não há pesquisa em IA para tornar as máquinas conscientes. A máquina segue objetivos criados por programas.

Grife. Russell é o nome mais popular do mundo quando o tema é Inteligência Artificial Imagem: U.C.Berkeley/University of California

CC: O senhor diz que a inteligência supra-humana, se existir, será o maior evento na história da humanidade. O quão longe estamos disso e o que o senhor diria a quem tem certeza de que essas máquinas não existirão?
SR: A grande maioria dos especialistas acredita que isso acontecerá neste século. Alguns acreditam que será muito mais cedo – talvez dentro de uma década –, mas eu não concordo. Aos que dizem que isso não pode acontecer, pergunto: vocês têm tanta certeza de sua previsão técnica que aceitam apostar nela o futuro da humanidade? É arrogância e tolice imaginar que nenhum arranjo de átomos possível pode superar o cérebro humano.

CC: Quão diferentes são os riscos e as possibilidades da IA superinteligente para países ricos e pobres?
SR: Se a humanidade perder o controle da IA superinteligente, não importará em que país você esteja. Riqueza não é proteção. O caminho certo a seguir é desenvolver uma IA que seja, provavelmente, benéfica e necessariamente permaneça sob o nosso controle, não importa quão inteligente se torne. Conforme a IA se aperfeiçoar, os impactos econômicos certamente vão diferir de acordo com a situação econômica de cada país. Já vemos algumas indústrias retornarem aos países de alta renda por causa da capacidade aperfeiçoada dos robôs. Isso significa que exportações de manufaturas de baixo custo poderão se tornar menos factíveis para os países de baixa renda.

“Apostar contra a engenhosidade humana é tolice, especialmente quando o nosso futuro está em jogo”

CC: Filmes como Inteligência Artificial, O Exterminador do Futuro e 2001: Uma Odisseia no Espaço são verossímeis para o senhor?
SR: A premissa de Inteligência Artificial e da série O Exterminador do Futuro é a consciência espontânea em máquinas, tão fictícia quanto a magia dos filmes de Harry Potter. O computador Hal 9000, em 2001, também parece consciente no final, quando Dave o está desmontando, mas isso é algo incidental na trama. O que é central é a ideia de o computador matar a tripulação humana da espaçonave para proteger a missão. Esse aspecto é muito mais próximo da questão real, de máquinas superinteligentes perseguirem objetivos incorretamente especificados. Meus robôs favoritos no cinema são os de Interestelar. Eles não têm aparência assustadora e fazem exatamente o que é necessário para os humanos com quem trabalham. Em uma cena, o robô TARS se suicida para salvar os humanos da queda no buraco negro.

CC: Que tipos de inteligência uma máquina pode ter e até que ponto é possível fazer uma analogia entre objetivo e desejo?
SR: A máquina de buscas Google tem uma memória que excede em muito a memória humana, mas não raciocina, aprende ou planeja. Já a máquina de jogos AlphaZero pode aprender a jogar em níveis supra-humanos, mas não tem memória nem capacidade linguística. Nas máquinas, o análogo dos desejos é a meta ou o objetivo. O carro autoconduzido “quer” levá-lo ao aeroporto em segurança, com conforto e dentro da lei. Ao perseguir o objetivo, ele gera comportamento. Se inserirmos o objetivo errado, a máquina pode gerar um comportamento catastrófico.

Ficção científica. No cinema, o robô TARS, de Interestelar, é o preferido de Russell – Imagem: Warner/Paramount

CC: Tem sentido dizer que a AI influencia as nossas decisões por meio do algoritmo? A propósito do algoritmo, por que sentimos que ele é meio burro?
SR: Porque ele é! Se você comprar um aspirador de pó, ele continuará recomendando aspiradores, como se você pretendesse fazer uma coleção. Os algoritmos dos sistemas de recomendação não sabem que as pessoas existem ou possuem mentes. Para os algoritmos de rede social, que controlam o insumo cognitivo de bilhões de seres humanos, uma pessoa não passa de uma história de clicar ou não clicar em diferentes itens de conteúdo. O objetivo do algoritmo é, geralmente, maximizar os cliques. Os criadores talvez pensassem que o algoritmo aprenderia a enviar itens de que o ­usuário gosta, mas o algoritmo tem outras ideias. Como qualquer entidade racional, ele aprende a modificar o estado de seu ambiente – nesse caso, a mente do usuário – para maximizar sua recompensa, tornando o usuário mais previsível. Um usuário mais previsível pode ser alimentado com artigos que ele seja mais propenso a consumir, assim gerando mais receitas. Os usuários com preferências mais radicais parecem ser mais previsíveis. E vemos as consequências do crescente radicalismo no mundo todo.

CC: A IA superinteligente poderia nos ajudar na crise do Coronavírus?
SR: Bem, ela poderia ter-nos dito: “Não brinquem com vírus ruins sem precauções extremas!” Falando sério, uma coisa que provavelmente acontecerá depois desta crise é que desenvolveremos sistemas de advertência precoce capazes de combinar pequenos itens de evidência de fontes diversas para detectar um surto assim que possível, estimar as características da doença e recomendar intervenções de saúde pública. Isso parece factível com a tecnologia atual, embora exija cooperação internacional e um esforço técnico significativo. •

PUBLICADO NA EDIÇÃO Nº 1192 DE CARTACAPITAL, EM 26 DE JANEIRO DE 2022.

Este texto aparece na edição impressa de CartaCapital sob o título “Inconscientes e superinteligentes”

Leia essa matéria gratuitamente

Tenha acesso a conteúdos exclusivos, faça parte da newsletter gratuita de CartaCapital, salve suas matérias e artigos favoritos para ler quando quiser e leia esta matéria na integra. Cadastre-se!

ENTENDA MAIS SOBRE: , , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Um minuto, por favor…

O bolsonarismo perdeu a batalha das urnas, mas não está morto.

Diante de um país tão dividido e arrasado, é preciso centrar esforços em uma reconstrução.

Seu apoio, leitor, será ainda mais fundamental.

Se você valoriza o bom jornalismo, ajude CartaCapital a seguir lutando por um novo Brasil.

Assine a edição semanal da revista;

Ou contribua, com o quanto puder.

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo