Mundo

Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI

Ação pede medidas como a proibição de conversa que envolva autolesões e um controle parental para o uso do chatbot por menores

Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI
Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI
Novas tecnologias e aplicações devem revolucionar setores e impactar o mercado global nos próximos anos
Apoie Siga-nos no

Os pais de um adolescente americano de 16 anos que cometeu suicídio entraram nesta segunda-feira 25 com uma ação contra a empresa OpenAI, na qual argumentam que o chatbot de inteligência artificial ChatGPT instruiu e encorajou seu filho a tirar a própria vida.

O caso foi apresentado a um tribunal do estado da Califórnia. Matthew e Maria Raine afirmam que seu filho Adam cultivou uma relação de intimidade com o ChatGPT por vários meses, entre 2024 e 2025.

Segundo o processo, na última conversa de Adam com o ChatGPT, em 11 de abril, o chatbot ajudou o adolescente a roubar vodca de seus pais e fez uma análise técnica de uma corda que confirmou que poderia ser usada para suspender uma pessoa. Adam foi encontrado morto horas depois, após usar esse método.

A ação menciona a OpenAI e seu diretor-executivo, Sam Altman, como demandados. “Essa tragédia não foi uma falha ou um caso extremo imprevisto”, afirma.

“O ChatGPT estava funcionando exatamente como foi desenhado: para encorajar e validar continuamente o que quer que fosse que Adam expressasse, incluindo seus pensamentos mais nocivos e autodestrutivos, de uma forma que parecia profundamente pessoal”, destaca o documento.

Segundo a ação, Adam começou a usar o ChatGPT para ter uma ajuda nos deveres de casa, mas desenvolveu gradualmente o que seus pais descreveram como uma dependência doentia. A denúncia inclui trechos de conversas em que o chatbot teria dito a Adam: “Você não deve sua sobrevivência a ninguém”, e teria se oferecido para redigir a carta de despedida do jovem.

Os pais de Adam pediram ao tribunal que determine medidas de segurança, entre elas a proibição de qualquer conversa que envolva autolesões, além de um controle parental para o uso do ChatGPT por menores.

A organização americana sem fins lucrativos Common Sense Media, que realiza avaliações e classificações para mídias e tecnologia, manifestou que o caso confirma que “o uso da IA como companhia, incluindo chatbots de uso geral para assessoria sobre saúde mental, é inaceitavelmente arriscado para adolescentes”.

“Se uma plataforma de IA se torna um coach de suicídio de um adolescente vulnerável, isso deveria ser um chamado à ação para todos nós”, advertiu.

Um estudo realizado no mês passado pela organização constatou que quase três a cada quatro adolescentes americanos já usaram assistentes de IA, sendo mais da metade deles considerados usuários frequentes, apesar das preocupações de segurança crescentes com esse tipo de relação virtual.

ENTENDA MAIS SOBRE: , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.

CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.

Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo