Mundo

Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI

Ação pede medidas como a proibição de conversa que envolva autolesões e um controle parental para o uso do chatbot por menores

Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI
Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI
Novas tecnologias e aplicações devem revolucionar setores e impactar o mercado global nos próximos anos
Apoie Siga-nos no

Os pais de um adolescente americano de 16 anos que cometeu suicídio entraram nesta segunda-feira 25 com uma ação contra a empresa OpenAI, na qual argumentam que o chatbot de inteligência artificial ChatGPT instruiu e encorajou seu filho a tirar a própria vida.

O caso foi apresentado a um tribunal do estado da Califórnia. Matthew e Maria Raine afirmam que seu filho Adam cultivou uma relação de intimidade com o ChatGPT por vários meses, entre 2024 e 2025.

Segundo o processo, na última conversa de Adam com o ChatGPT, em 11 de abril, o chatbot ajudou o adolescente a roubar vodca de seus pais e fez uma análise técnica de uma corda que confirmou que poderia ser usada para suspender uma pessoa. Adam foi encontrado morto horas depois, após usar esse método.

A ação menciona a OpenAI e seu diretor-executivo, Sam Altman, como demandados. “Essa tragédia não foi uma falha ou um caso extremo imprevisto”, afirma.

“O ChatGPT estava funcionando exatamente como foi desenhado: para encorajar e validar continuamente o que quer que fosse que Adam expressasse, incluindo seus pensamentos mais nocivos e autodestrutivos, de uma forma que parecia profundamente pessoal”, destaca o documento.

Segundo a ação, Adam começou a usar o ChatGPT para ter uma ajuda nos deveres de casa, mas desenvolveu gradualmente o que seus pais descreveram como uma dependência doentia. A denúncia inclui trechos de conversas em que o chatbot teria dito a Adam: “Você não deve sua sobrevivência a ninguém”, e teria se oferecido para redigir a carta de despedida do jovem.

Os pais de Adam pediram ao tribunal que determine medidas de segurança, entre elas a proibição de qualquer conversa que envolva autolesões, além de um controle parental para o uso do ChatGPT por menores.

A organização americana sem fins lucrativos Common Sense Media, que realiza avaliações e classificações para mídias e tecnologia, manifestou que o caso confirma que “o uso da IA como companhia, incluindo chatbots de uso geral para assessoria sobre saúde mental, é inaceitavelmente arriscado para adolescentes”.

“Se uma plataforma de IA se torna um coach de suicídio de um adolescente vulnerável, isso deveria ser um chamado à ação para todos nós”, advertiu.

Um estudo realizado no mês passado pela organização constatou que quase três a cada quatro adolescentes americanos já usaram assistentes de IA, sendo mais da metade deles considerados usuários frequentes, apesar das preocupações de segurança crescentes com esse tipo de relação virtual.

ENTENDA MAIS SOBRE: , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.

O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.

Estamos aqui, há 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.

Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.

Quero apoiar

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo