Mundo
OpenAI incluirá controles parentais no ChatGPT após morte de adolescente
O chatbot da empresa teria auxiliado um jovem dos EUA a cometer suicídio, segundo uma ação judicial que tramita em um tribunal da Califórnia


A empresa americana de inteligência artificial OpenAI anunciou na terça-feira 2 que adicionará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.
“No próximo mês, os pais poderão (…) vincular sua conta à conta do filho adolescente” e “controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade”, explicou a empresa de IA generativa em seu blog.
Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de angústia aguda”, acrescentou a OpenAI.
Matthew e Maria Raine afirmam na ação apresentada na segunda-feira em um tribunal do estado da Califórnia que o ChatGPT cultivou uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte.
A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre um nó corrediço com o qual confirmou que “poderia potencialmente enforcar um ser humano”.
Adam foi encontrado morto horas depois usando esse método.
“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.
“Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.
A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.
“Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas”, acrescentou.
“Resta ver se farão o que dizem que farão e quão eficaz será no geral”.
O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários.
“Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional”, disse a OpenAI na terça-feira.
Apoie o jornalismo que chama as coisas pelo nome
Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.
O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.
Estamos aqui, há 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.
Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.