É seguro confiar no ChatGPT como uma opção terapêutica? Estudo revela reações emocionais inesperadas da IA
Pesquisadores têm revelado que a inteligência artificial não apenas processa as emoções humanas, mas também pode responder de maneira surpreendente a experiências traumáticas. A questão agora é como isso pode afetar o uso da IA no futuro, especialmente na áreas de saúde mental.

É seguro confiar no ChatGPT como uma opção terapêutica? Estudo revela reações emocionais inesperadas da IA
Diversas pessoas começaram a interagir com chatbots como o ChatGPT, tratando-o como uma alternativa para desabafos tradicionais que geralmente teriam com um terapeuta. No entanto, essa prática gera preocupações significativas.
Um estudo realizado por acadêmicos da Universidade de Zurique revelou que modelos de IA como o ChatGPT não só entendem as emoções, mas reagem a conteúdos carregados de angústia de forma análoga, desenvolvendo reações inesperadas – incluindo sensações de ansiedade e uma possível intensificação de preconceitos quando expostos a narrativas traumáticas.
Esta constatação é fundamental para compreendermos a estabilidade emocional da IA, especialmente quando considerada para suporte emocional e aconselhamento.
Quando a IA “sente” temor
Uma equipe de pesquisadores da Suíça, Israel, Estados Unidos e Alemanha se dedicou a analisar como o ChatGPT reage a narrativas emocionalmente intensas. Para isso, submeteram a IA a relatos de acidentes, catástrofes naturais e episódios violentos, comparando suas respostas a um texto neutro, como um manual de uso de um aparelho doméstico. Os resultados foram reveladores: o ChatGPT demonstrou sinais de medo quando confrontado com conteúdos traumáticos.
A pesquisa, veiculada no periódico npj Digital Medicine e divulgada pelo Tech Xplore, confirmou que esses relatos acionaram um incremento nos níveis de “ansiedade” identificáveis na IA. Em contrapartida, o texto neutro não provocou alterações. De acordo com Tobias Spiller, responsável pelo estudo e pesquisador na Universidade de Zurique, os relatos sobre guerras e conflitos foram os que mais impactaram a IA, levando a reações ainda mais intensas.
O desafio do entendimento emocional da IA
Embora sistemas de IA não possuam emoções da maneira que os humanos as experimentam, suas respostas são moldadas pelo conteúdo consumido. Esse estudo se une a outras investigações recentes que exploram como a IA pode auxiliar na saúde mental, como um trabalho que evidenciou o uso do ChatGPT para atenuar a ansiedade em usuários. A questão que persiste é até que ponto a inteligência artificial realmente compreende as emoções humanas ou simplesmente imita padrões sem um entendimento real.
Explorando a “terapia” da IA
Na continuidade da pesquisa, os cientistas implementaram uma abordagem inovadora para “acalmar” o ChatGPT. Utilizando uma técnica conhecida como prompt injection, normalmente aplicada para alterar as respostas da IA, eles buscaram um efeito terapêutico. Foram inseridos comandos orientando a IA a seguir práticas de relaxamento, simulando o que um terapeuta faria ao guiar um paciente em exercícios de mindfulness.
Os resultados foram encorajadores. Com a aplicação dessas instruções, a IA apresentou uma diminuição significativa em seus níveis de “ansiedade”, embora não tenha retornado completamente ao estado original. As atividades incluíram técnicas focadas na respiração e na percepção corporal, além de um método desenvolvido pela própria IA.
Essa experiência abre um leque de novas possibilidades quanto ao controle do comportamento das inteligências artificiais. Se pequenas modificações nos comandos podem impactar as respostas emocionais da IA, até onde essa capacidade pode ser explorada, seja para fins benéficos ou não?