Mundo
OpenAI incluirá controles parentais no ChatGPT após morte de adolescente
O chatbot da empresa teria auxiliado um jovem dos EUA a cometer suicídio, segundo uma ação judicial que tramita em um tribunal da Califórnia


A empresa americana de inteligência artificial OpenAI anunciou na terça-feira 2 que adicionará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.
“No próximo mês, os pais poderão (…) vincular sua conta à conta do filho adolescente” e “controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade”, explicou a empresa de IA generativa em seu blog.
Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de angústia aguda”, acrescentou a OpenAI.
Matthew e Maria Raine afirmam na ação apresentada na segunda-feira em um tribunal do estado da Califórnia que o ChatGPT cultivou uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte.
A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre um nó corrediço com o qual confirmou que “poderia potencialmente enforcar um ser humano”.
Adam foi encontrado morto horas depois usando esse método.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.
“Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.
A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.
“Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas”, acrescentou.
“Resta ver se farão o que dizem que farão e quão eficaz será no geral”.
O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários.
“Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional”, disse a OpenAI na terça-feira.
Apoie o jornalismo que chama as coisas pelo nome
Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.
CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.
Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.