Em 2025, a inteligência artificial ultrapassou barreiras técnicas e passou a atuar como apoio emocional para milhões de pessoas. De acordo com levantamento da Filtered, publicado na Harvard Business Review, o uso mais comum da IA generativa hoje está ligado ao bem-estar pessoal — com destaque para funções terapêuticas.

Plataformas como o ChatGPT são usadas como conselheiros e confidentes digitais, oferecendo escuta constante, gratuita e sem julgamentos. No entanto, especialistas alertam para os riscos dessa “terapia automatizada”: o excesso de validação, a ausência de confronto e a criação de bolhas emocionais que alimentam o narcisismo.
Diferente de psicoterapeutas ou psicanalistas, a IA não acessa o inconsciente, não reconhece silêncios e não provoca reflexões profundas. Ela responde com base em padrões e previsões, sem a escuta crítica e afetiva necessária para o verdadeiro processo terapêutico.
O avanço da IA no campo emocional levanta uma discussão urgente: até que ponto é seguro terceirizar nossa saúde mental a um algoritmo? Para os defensores da escuta humana, a resposta é clara — a tecnologia pode ajudar, mas jamais substituir a presença, o afeto e o confronto oferecidos por um profissional qualificado.
Com informações da GreenMe Brasil.