Do Micro Ao Macro
ChatGPT anuncia recursos para saúde mental e especialistas pedem cautela
Funções prometem alertas de pausa e detecção de sofrimento emocional, mas debate expõe riscos e limites da tecnologia


A OpenAI informou que deve lançar em breve ferramentas do ChatGPT voltadas ao bem-estar emocional. Entre os novos recursos estão lembretes de pausa em conversas prolongadas e mecanismos para identificar sinais de sofrimento mental ou emocional.
O objetivo declarado é estimular hábitos digitais mais saudáveis e oferecer apoio inicial a quem procura amparo.
O anúncio acontece em um contexto de crescente interesse pelo tema. Pesquisa da Harvard Business Review mostrou que aconselhamento terapêutico e aplicações pessoais são hoje a principal motivação para o uso da IA generativa no mundo.
No Brasil, levantamento da Talk Inc. aponta que um em cada dez usuários recorre a esses sistemas como suporte psicológico.
Alertas de especialistas
Para especialistas, o entusiasmo deve ser acompanhado de cautela. Rui Brandão, vice-presidente de saúde mental da Conexa, lembra que há limites claros.
“Modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais e até oferecendo respostas inadequadas em contextos delicados”, afirma.
O executivo cita um estudo publicado no arXiv, que comparou respostas de terapeutas humanos e sistemas de IA. Os profissionais acertaram 93% das vezes, enquanto os modelos atenderam a padrões básicos em apenas metade dos testes.
Para ele, a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, mas não substitui a relação humana.
Leandro Oliveira, diretor da Humand no Brasil, acrescenta que o bem-estar emocional exige empatia, confiança e conexão real.
“Estamos tentando consertar algo humano com ferramentas que, por natureza, carecem justamente da profundidade humana”, afirma.
Benefícios e riscos
Ainda assim, os especialistas reconhecem que a tecnologia oferece vantagens. A capacidade de processar grandes volumes de dados, personalizar interações e oferecer disponibilidade 24 horas cria pontos de contato importantes para pessoas em crise ou em filas de espera para atendimento.
Brandão ressalta que esse apoio pode incluir exercícios de psicoeducação e acompanhamento de sintomas entre sessões, desde que com privacidade garantida.
A ausência de conformidade plena com normas de proteção de dados, no entanto, continua sendo um obstáculo para uso clínico seguro.
Outro ponto de atenção é que a prática terapêutica vai além do texto. Gestos, pausas e silêncios fazem parte do processo, elementos que a IA não capta.
“Muitas vezes, o que torna a terapia eficaz são justamente as suas ineficiências. O processo é confuso e não-linear, depende da construção de confiança”, observa Oliveira.
Ambiente corporativo
O uso de ferramentas generativas em empresas também tem crescido. Oliveira alerta, porém, que a tecnologia não deve substituir práticas humanas que moldam a cultura organizacional, como escuta ativa, dúvidas compartilhadas e criação coletiva.
“A inteligência artificial pode acelerar fluxos, mas não substitui os pequenos gestos que constroem cultura”, explica.
Limites da inovação
Para Brandão, o caminho é usar a tecnologia para liberar tempo dos profissionais, não para replicá-los.
“O objetivo não deve ser tornar os terapeutas mais parecidos com máquinas, mas usar as máquinas para libertar os terapeutas para serem mais plenamente humanos na prática”, conclui.
Apoie o jornalismo que chama as coisas pelo nome
Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.
O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.
Estamos aqui, há 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.
Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.