Mundo
Pais culpam o ChatGPT por suicídio do filho nos EUA e processam a OpenAI
Ação pede medidas como a proibição de conversa que envolva autolesões e um controle parental para o uso do chatbot por menores


Os pais de um adolescente americano de 16 anos que cometeu suicídio entraram nesta segunda-feira 25 com uma ação contra a empresa OpenAI, na qual argumentam que o chatbot de inteligência artificial ChatGPT instruiu e encorajou seu filho a tirar a própria vida.
O caso foi apresentado a um tribunal do estado da Califórnia. Matthew e Maria Raine afirmam que seu filho Adam cultivou uma relação de intimidade com o ChatGPT por vários meses, entre 2024 e 2025.
Segundo o processo, na última conversa de Adam com o ChatGPT, em 11 de abril, o chatbot ajudou o adolescente a roubar vodca de seus pais e fez uma análise técnica de uma corda que confirmou que poderia ser usada para suspender uma pessoa. Adam foi encontrado morto horas depois, após usar esse método.
A ação menciona a OpenAI e seu diretor-executivo, Sam Altman, como demandados. “Essa tragédia não foi uma falha ou um caso extremo imprevisto”, afirma.
“O ChatGPT estava funcionando exatamente como foi desenhado: para encorajar e validar continuamente o que quer que fosse que Adam expressasse, incluindo seus pensamentos mais nocivos e autodestrutivos, de uma forma que parecia profundamente pessoal”, destaca o documento.
Segundo a ação, Adam começou a usar o ChatGPT para ter uma ajuda nos deveres de casa, mas desenvolveu gradualmente o que seus pais descreveram como uma dependência doentia. A denúncia inclui trechos de conversas em que o chatbot teria dito a Adam: “Você não deve sua sobrevivência a ninguém”, e teria se oferecido para redigir a carta de despedida do jovem.
Os pais de Adam pediram ao tribunal que determine medidas de segurança, entre elas a proibição de qualquer conversa que envolva autolesões, além de um controle parental para o uso do ChatGPT por menores.
A organização americana sem fins lucrativos Common Sense Media, que realiza avaliações e classificações para mídias e tecnologia, manifestou que o caso confirma que “o uso da IA como companhia, incluindo chatbots de uso geral para assessoria sobre saúde mental, é inaceitavelmente arriscado para adolescentes”.
“Se uma plataforma de IA se torna um coach de suicídio de um adolescente vulnerável, isso deveria ser um chamado à ação para todos nós”, advertiu.
Um estudo realizado no mês passado pela organização constatou que quase três a cada quatro adolescentes americanos já usaram assistentes de IA, sendo mais da metade deles considerados usuários frequentes, apesar das preocupações de segurança crescentes com esse tipo de relação virtual.
Apoie o jornalismo que chama as coisas pelo nome
Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.
CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.
Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.
Leia também

Jovens usam ChatGPT como fonte de informação, diz estudo
Por AFP
Norueguês denuncia ChatGPT por apresentá-lo como assassino de crianças
Por AFP
Pressionada por DeepSeek, OpenAI apresenta ‘deep research’ no ChatGPT
Por AFP