Mundo

OpenAI incluirá controles parentais no ChatGPT após morte de adolescente

O chatbot da empresa teria auxiliado um jovem dos EUA a cometer suicídio, segundo uma ação judicial que tramita em um tribunal da Califórnia

OpenAI incluirá controles parentais no ChatGPT após morte de adolescente
OpenAI incluirá controles parentais no ChatGPT após morte de adolescente
ChatGPT anunciou que adotará medidas de controle parental. Foto: SEBASTIEN BOZON / AFP
Apoie Siga-nos no

A empresa americana de inteligência artificial OpenAI anunciou na terça-feira 2 que adicionará controles parentais ao seu chatbot ChatGPT, uma semana após um casal americano afirmar que o sistema incentivou seu filho adolescente a cometer suicídio.

“No próximo mês, os pais poderão (…) vincular sua conta à conta do filho adolescente” e “controlar como o ChatGPT responde ao adolescente com regras de comportamento adequadas à idade”, explicou a empresa de IA generativa em seu blog.

Os pais também receberão notificações do ChatGPT “quando o sistema detectar que o adolescente está em um momento de angústia aguda”, acrescentou a OpenAI.

Matthew e Maria Raine afirmam na ação apresentada na segunda-feira em um tribunal do estado da Califórnia que o ChatGPT cultivou uma relação íntima com seu filho Adam por vários meses entre 2024 e 2025, antes de sua morte.

A denúncia alega que em sua conversa final, em 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodca de seus pais e lhe forneceu uma análise técnica sobre um nó corrediço com o qual confirmou que “poderia potencialmente enforcar um ser humano”.

Adam foi encontrado morto horas depois usando esse método.

“Quando uma pessoa usa o ChatGPT realmente sente que está conversando com algo do outro lado”, disse a advogada Melodi Dincer, que ajudou a preparar a ação legal.

“Essas são as mesmas características que poderiam levar alguém como Adam, com o tempo, a começar a compartilhar cada vez mais sobre sua vida pessoal e, em última análise, a buscar conselhos e orientação deste produto que basicamente parece ter todas as respostas”, afirmou Dincer.

A advogada disse que a publicação no blog da OpenAI anunciando os controles parentais e outras medidas de segurança é “genérica” e carece de detalhes.

“Realmente é o mínimo, e definitivamente sugere que muitas medidas de segurança (simples) poderiam ter sido implementadas”, acrescentou.

“Resta ver se farão o que dizem que farão e quão eficaz será no geral”.

O caso dos Raine foi apenas o mais recente em uma série de incidentes nos quais pessoas foram incentivadas por chatbots de IA a seguir pensamentos delirantes ou prejudiciais, o que levou a OpenAI a anunciar que reduziria a “bajulação” dos modelos aos usuários.

“Continuamos melhorando em como nossos modelos reconhecem e respondem a sinais de angústia mental e emocional”, disse a OpenAI na terça-feira.

ENTENDA MAIS SOBRE: , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Depois de anos bicudos, voltamos a um Brasil minimamente normal. Este novo normal, contudo, segue repleto de incertezas. A ameaça bolsonarista persiste e os apetites do mercado e do Congresso continuam a pressionar o governo. Lá fora, o avanço global da extrema-direita e a brutalidade em Gaza e na Ucrânia arriscam implodir os frágeis alicerces da governança mundial.

CartaCapital não tem o apoio de bancos e fundações. Sobrevive, unicamente, da venda de anúncios e projetos e das contribuições de seus leitores. E seu apoio, leitor, é cada vez mais fundamental.

Não deixe a Carta parar. Se você valoriza o bom jornalismo, nos ajude a seguir lutando. Assine a edição semanal da revista ou contribua com o quanto puder.

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo