Do Micro Ao Macro
ChatGPT anuncia recursos para saúde mental e especialistas pedem cautela
Funções prometem alertas de pausa e detecção de sofrimento emocional, mas debate expõe riscos e limites da tecnologia
A OpenAI informou que deve lançar em breve ferramentas do ChatGPT voltadas ao bem-estar emocional. Entre os novos recursos estão lembretes de pausa em conversas prolongadas e mecanismos para identificar sinais de sofrimento mental ou emocional.
O objetivo declarado é estimular hábitos digitais mais saudáveis e oferecer apoio inicial a quem procura amparo.
O anúncio acontece em um contexto de crescente interesse pelo tema. Pesquisa da Harvard Business Review mostrou que aconselhamento terapêutico e aplicações pessoais são hoje a principal motivação para o uso da IA generativa no mundo.
No Brasil, levantamento da Talk Inc. aponta que um em cada dez usuários recorre a esses sistemas como suporte psicológico.
Alertas de especialistas
Para especialistas, o entusiasmo deve ser acompanhado de cautela. Rui Brandão, vice-presidente de saúde mental da Conexa, lembra que há limites claros.
“Modelos como o ChatGPT podem falhar na interpretação do sofrimento humano, deixando escapar nuances emocionais e até oferecendo respostas inadequadas em contextos delicados”, afirma.
O executivo cita um estudo publicado no arXiv, que comparou respostas de terapeutas humanos e sistemas de IA. Os profissionais acertaram 93% das vezes, enquanto os modelos atenderam a padrões básicos em apenas metade dos testes.
Para ele, a IA pode apoiar no acolhimento inicial e no monitoramento de sintomas, mas não substitui a relação humana.
Leandro Oliveira, diretor da Humand no Brasil, acrescenta que o bem-estar emocional exige empatia, confiança e conexão real.
“Estamos tentando consertar algo humano com ferramentas que, por natureza, carecem justamente da profundidade humana”, afirma.
Benefícios e riscos
Ainda assim, os especialistas reconhecem que a tecnologia oferece vantagens. A capacidade de processar grandes volumes de dados, personalizar interações e oferecer disponibilidade 24 horas cria pontos de contato importantes para pessoas em crise ou em filas de espera para atendimento.
Brandão ressalta que esse apoio pode incluir exercícios de psicoeducação e acompanhamento de sintomas entre sessões, desde que com privacidade garantida.
A ausência de conformidade plena com normas de proteção de dados, no entanto, continua sendo um obstáculo para uso clínico seguro.
Outro ponto de atenção é que a prática terapêutica vai além do texto. Gestos, pausas e silêncios fazem parte do processo, elementos que a IA não capta.
“Muitas vezes, o que torna a terapia eficaz são justamente as suas ineficiências. O processo é confuso e não-linear, depende da construção de confiança”, observa Oliveira.
Ambiente corporativo
O uso de ferramentas generativas em empresas também tem crescido. Oliveira alerta, porém, que a tecnologia não deve substituir práticas humanas que moldam a cultura organizacional, como escuta ativa, dúvidas compartilhadas e criação coletiva.
“A inteligência artificial pode acelerar fluxos, mas não substitui os pequenos gestos que constroem cultura”, explica.
Limites da inovação
Para Brandão, o caminho é usar a tecnologia para liberar tempo dos profissionais, não para replicá-los.
“O objetivo não deve ser tornar os terapeutas mais parecidos com máquinas, mas usar as máquinas para libertar os terapeutas para serem mais plenamente humanos na prática”, conclui.
2026 já começou
Às vésperas das eleições de 2026, o País volta a encarar um ponto de inflexão: o futuro democrático está novamente em jogo.
A ameaça bolsonarista não foi derrotada, apenas recuou. No Congresso, forças conservadoras seguem ditando o ritmo. Lá fora, o avanço da extrema-direita e os conflitos em Gaza, no Irã e na Ucrânia agravam a instabilidade global.
Se você valoriza o jornalismo crítico, independente e comprometido com a democracia, este é o momento de agir.
Assine ou contribua com o quanto puder.



