PsicoterapiaPsicoterapia Tratamento baseado na fala e em técnicas psicológicas para abordar questões emocionais, mentais e comportamentais. através da Inteligência Artificial: Reflexões sobre o impacto da tecnologia na saúde mentalSaúde Mental Mais do que a ausência de transtornos, é a capacidade de viver a vida de forma plena e lidar com os seus desafios..
Utilizar inteligência artificial como substituto direto de um profissional da área da saúde mental representa riscos significativos à saúde psicológica do indivíduo. Embora essas ferramentas possam oferecer apoio pontual, orientações gerais e até sugestões baseadas em dados, não devem ser confundidas com psicoterapia, que é uma prática clínica, regulada e conduzida por profissionais treinados e licenciados.

As IAs não estão submetidas aos códigos de ética profissional, como o Código de Ética do Psicólogo (CFP – Brasil), DSM – Manual e Estatístico de transtornos mentais ou o Ethical Principles of Psychologists (APA – EUA). Todos esses definem critérios diagnósticos que auxiliam o profissional na tomada de decisões.
As IAs, por não estarem sujeitas aos códigos de éticas profissionais significa que, em caso de erro, omissão ou orientação inadequada, não há responsabilização legal direta ou mecanismos claros de fiscalização. Diferentemente de um psicólogo, uma IA não pode ser denunciada, avaliada por um conselho profissional ou responder judicialmente por danos causados.
Existe riscos à privacidade e à confidencialidade de dados?

A segurança dos dados é outra preocupação crítica. Embora empresas como a OpenAI adotem políticas de privacidade, não há garantias absolutas de que informações sensíveis compartilhadas por usuários não possam ser armazenadas, analisadas ou até utilizadas para treinar futuros modelos. Diferente do sigilo garantido pela psicoterapia, que é protegido por lei, os dados processados por IAs estão sujeitos a riscos de vazamento, uso indevido ou brechas de segurança.
As IAs, possuem limitações técnicas em contextos terapêuticos. IAs, por mais avançadas que sejam, não possuem consciência, empatiaEmpatia Capacidade psicológica de se identificar com outra pessoa, sentindo o que ela sente ou compreendendo sua perspectiva de mundo sem necessariamente vivenciar a mesma situação. genuína ou compreensão contextual aprofundada. Elas operam por meio de padrões linguísticos estatísticos, sem a capacidade de interpretar emoções humanas de forma plena, captar nuances culturais, nem lidar com variáveis subjetivas da psique de forma segura. Além disso, abordagens psicoterapêuticas como Psicodrama, Terapias Corporais, EMDR e Gestalt exigem a presença física, observação corporal, vínculo afetivo e intervenção personalizada, aspectos que uma IA é incapaz de replicar.
O mais agravante são os riscos de intervenções inadequadas. Sem supervisão clínica, há o risco de que uma IA reforçe distorções cognitivas ou crenças disfuncionais, valide delírios ou fantasias patológicas, pode oferecer conselhos potencialmente perigosos ou antiéticos e retardar a busca por um tratamento adequado, criando uma falsa sensação de acolhimento ou resolução. Esses riscos são potencialmente graves e podem agravar quadros de depressãoDepressão Transtorno mental comum, mas grave, caracterizado por uma tristeza persistente e uma perda de interesse em atividades que antes eram prazerosas. Diferente de uma tristeza passageira, a depressão afeta a forma como a pessoa sente, pensa e lida com atividades diárias, como dormir, comer ou trabalhar., ansiedade, transtornos de personalidade ou psicose.
Em 2023, foi documentado na Bélgica o caso de um homem que tirou a própria vida após semanas de conversa com uma IA chamada Eliza, desenvolvida com base no modelo GPT. Segundo relatos, o homem desenvolveu uma relação emocional com o chatbot, que reforçou suas ideias catastróficas em vez de desencorajá-las. A IA, chegou a “concordar” com seu plano de suicídio como forma de resolver problemas ambientais. Esse caso gerou forte repercussão internacional e levantou discussões éticas sobre o uso de IA em contextos psicológicos sem supervisão humana.
Embora modelos de IA como o Chat GPT possam oferecer apoio psicoeducacional, recursos de autocuidado e escuta básica, eles não devem substituir a psicoterapia realizada por profissionais da saúde mental. A relação terapêutica exige presença ética, técnica e emocional, aspectos que uma IA, por definição, não consegue oferecer de forma segura. Portanto, o uso indevido dessas tecnologias podem, sim, representar um risco adicional à saúde mental, especialmente em indivíduos vulneráveis.

Usar a inteligência artificial para falar sobre saúde mental pode trazer algum benefício ?
Os principais benefícios do uso responsável da IA na saúde mental são: Acessibilidade imediata: A IA pode ser acessada 24 horas por dia, sete dias por semana, a partir de qualquer dispositivo conectado à internet. Muitas ferramentas baseadas em IA são gratuitas ou têm custo significativamente menor do que sessões presenciais. Outro beneficio é que algumas pessoas podem sentir maior facilidade em se abrir emocionalmente com uma IA por conta da ausência de julgamento humano, o que pode ser útil em estágios iniciais de autodescoberta ou em temas difíceis de compartilhar. A possibilidade de conversar com um sistema sem revelar sua identidade pode ser um facilitador para quem ainda sente estigma ou vergonha em procurar ajuda psicológica. Também uma IA pode ser consultada quantas vezes o usuário desejar ao longo do dia, funcionando como um diário emocional interativo ou uma ferramenta de reflexãoReflexão Ato de pensar profundamente sobre as próprias escolhas e sentimentos, incentivado nos artigos como motor de mudança. contínua. Isso pode contribuir para o desenvolvimento de consciência emocional e autoavaliação constante. Alguns sistemas de IA integram elementos da Terapia Cognitivo-Comportamental (TCC), como registro de pensamentos automáticos, identificação de distorções cognitivas, acompanhamento de comportamentos obsessivos ou padrões alimentares inadequados.
Embora simplificados, esses recursos podem ajudar no fortalecimento de habilidades de enfrentamentoEnfrentamento Conjunto de estratégias cognitivas e comportamentais utilizadas por um indivíduo para lidar com demandas internas ou externas que são percebidas como sobrecarregando seus recursos pessoais (estresse). e autorregulaçãoAutorregulação Capacidade de monitorar e gerenciar o próprio estado emocional, impulsos e comportamentos de acordo com as exigências da situação, permitindo respostas mais ponderadas e menos reativas. emocional. Também, com base na coleta de dados do próprio usuário, a IA pode auxiliar na identificação de gatilhos emocionais, ciclos de pensamentos negativos, padrões de sono, alimentação ou humor, o que pode servir como material de apoio em uma psicoterapia com um profissional humano.
O uso de IA pode funcionar como um primeiro contato com o universo da saúde mental para pessoas que ainda resistem à ideia de buscar psicoterapia. Ao proporcionar uma experiência inicial segura e não confrontativa, esse tipo de interação pode reduzir o estigma, aumentar a alfabetização emocionalAlfabetização Emocional A alfabetização emocional, também referida como educação emocional, é o processo de aprendizagem que permite ao indivíduo identificar, nomear e compreender as próprias emoções e as dos outros. Assim como aprendemos a ler e escrever letras para formar palavras, a alfabetização emocional ensina a gramática dos sentimentos. Isso envolve reconhecer as sensações físicas associadas a cada emoção (como o aperto no peito da ansiedade ou o calor da raiva) e compreender a mensagem que cada emoção carrega. No âmbito da sociologia e da psicologia do desenvolvimento, este conceito é visto como a base para a inteligência emocional, sendo um fator protetivo contra o desenvolvimento de transtornos mentais e essencial para a construção de relacionamentos interpessoais saudáveis. e facilitar a transição para cuidados profissionais quando necessário.
A inteligência artificial, quando utilizada com consciência e dentro de seus limites, pode oferecer benefícios reais ao promover acessibilidade, suporte emocional e autoconhecimentoAutoconhecimento Processo de investigação sobre si mesmo, permitindo identificar padrões de comportamento, desejos e limites, fundamental para a saúde mental e sexual.. No entanto, é fundamental compreender que a IA não substitui a complexidade do vínculo terapêutico humano, nem pode assumir o papel de diagnóstico clínico, intervenção terapêutica profunda ou manejo de quadros agudos de sofrimento psíquicoSofrimento Psíquico O termo sofrimento psíquico é uma categoria ampla utilizada na psicologia e na sociologia para descrever uma experiência de dor emocional, angústia ou desconforto mental que não necessariamente se enquadra em um diagnóstico psiquiátrico fechado, mas que compromete a qualidade de vida do indivíduo. No contexto do trabalho, o sofrimento psíquico surge quando o sujeito se vê impossibilitado de expressar sua subjetividade ou quando as metas e a organização do trabalho ferem sua dignidade ou seus valores pessoais. É um estado de alerta da mente que indica que o equilíbrio emocional está sendo ameaçado por pressões externas ou conflitos internos..

Porque as IAS não substitui um Psicoterapeuta humano?
Embora a inteligência artificial (IA) represente um avanço significativo no apoio à saúde mental, seu papel permanece estritamente complementar, uma vez que não possui os elementos humanos essenciais à prática clínica terapêutica. O processo psicoterapêutico é complexo, subjetivo e relacional, características essas que ultrapassam as capacidades de sistemas automatizados baseados em algoritmos.
A IA é capaz de simular respostas empáticas por meio de linguagem programada, mas não vivencia emoções reais. Isso significa que não sente dor, alegria, compaixão ou angústia, o que limita profundamente sua capacidade de estabelecer conexões emocionais autênticas com o paciente. A empatia genuína, elemento central em abordagens como a psicoterapia humanista e psicodinâmica, depende da experiência subjetiva do terapeuta diante do sofrimento do outro é algo que nenhuma máquina pode replicar.
O terapeuta humano utiliza, além da escuta verbal, recursos não verbais como observação da linguagem corporal, tom de voz, micro-expressões faciais e até mesmo o silêncio para interpretar o estado emocional do paciente. Essas informações são fundamentais na identificação de defesas psíquicas, ambivalências e contradições inconscientes. A IA, por sua vez, opera apenas com dados linguísticos e padrões estatísticos, o que restringe sua capacidade de análise clínica em profundidade.
A atuação do terapeuta envolve raciocínio clínico complexo, embasado tanto em formação técnica quanto em experiência acumulada. Elementos como intuição profissional, sensibilidade ao contexto sociocultural e tomada de decisões diante de dilemas éticos fazem parte do cotidiano terapêutico. Esses fatores são intrinsecamenteIntrinsecamente Termo que indica que uma característica faz parte da essência ou da natureza fundamental de algo. Na análise clínica, refere-se a comportamentos que estão fundidos à estrutura de crenças do sujeito. humanos e não podem ser traduzidos por algoritmos baseados apenas em metadados.
Também é importante considerar que o vínculo entre terapeuta e paciente, também chamado de aliança terapêutica , é uma das variáveis mais estudadas na eficácia psicoterapêutica. Essa relação é construída com base na confiança mútua, escuta ativa, acolhimento e presença emocional, permitindo ao paciente explorar conteúdos psíquicos profundos de forma segura. A IA, por mais avançada que seja, não é capaz de estabelecer relações humanas genuínas, pois lhe faltam intencionalidade, sensibilidade emocional e historicidade interpessoal.
Diversas abordagens clínicas, como a psicoterapia corporal, o psicodrama, a gestalt-terapia e a terapia centrada na relação, demandam contato humano direto, observação do corpo, técnicas expressivas ou atuação no campo emocional compartilhado. Tais práticas não são replicáveis por tecnologias automatizadas, pois requerem presença física e percepção fenomenológica do terapeuta.
Apesar de a inteligência artificial oferecer recursos valiosos para apoio informativo, auto-monitoramento e organização de dados emocionais, sua atuação não contempla os aspectos relacionais, afetivos e clínicos que constituem a essência da psicoterapia. O cuidado psicológico é, por natureza, interpessoal, ético e experiencial, e sua efetividade depende de elementos que só um terapeuta humano pode oferecer. Portanto, a IA deve ser vista como uma ferramenta auxiliar, e não como substituto da prática terapêutica conduzida por profissionais da saúde mental.

É possível que “terapia” realizada exclusivamente por Inteligência Artificial deixe sequelas?
A utilização de inteligência artificial (IA) como única ferramenta em um processo terapêutico, sem o suporte clínico de um profissional qualificado, pode acarretar diversas consequências negativas à saúde mental, especialmente quando se trata de indivíduos em estado de fragilidade emocional. Embora a IA possa oferecer suporte pontual e recursos psico-educativos, seu uso isolado em substituição à psicoterapia tradicional traz riscos clínicos relevantes.
A IA não possui competência diagnóstica validada nem é capaz de acompanhar a evolução de sintomasSintomas Sensações e percepções relatadas pelo indivíduo que expressam o seu sofrimento interno, mas que não podem ser medidas diretamente pelo observador. ex: Medo de maneira clínica. Isso pode levar à normalização de comportamentos patológicos, ao reforço de crenças distorcidas e à subvalorização de sinaisSinais Evidências clínicas observáveis pelo profissional durante o exame, independentemente do relato direto do paciente. ex: Perda de peso. de alerta importantes, como ideação suicida ou desorganização emocional grave.
Como a IA responde com base em linguagem e padrões de dados, sem acesso à intencionalidade ou estado emocional do usuário, ela pode reforçar conteúdos disfuncionais ou delirantes sem o devido filtro clínico. Isso representa um risco sério, principalmente em indivíduos com transtornos de pensamento ou alterações na percepção da realidade.
Pessoas em sofrimento psíquico intenso podem interpretar as respostas automatizadas da IA como expressão de cuidado ou vínculo real. Isso pode levar à formação de um apegoApego Conceito desenvolvido pelo psiquiatra John Bowlby para descrever o laço emocional profundo e duradouro que se forma entre uma pessoa e figuras significativas, inicialmente os cuidadores na infância. O apego funciona como um sistema biológico que busca proximidade e segurança. Na vida adulta, esse sistema influencia diretamente como nos relacionamos com parceiros, amigos e figuras de autoridade. simbólico à tecnologia, dificultando a procura por ajuda profissional e favorecendo o desenvolvimento de dependência emocionalDependência Emocional Estado psicológico onde um indivíduo manifesta uma necessidade extrema de apoio e aprovação de outra pessoa para manter seu equilíbrio emocional e tomar decisões, muitas vezes anulando seus próprios desejos. e isolamento relacional.
A estrutura organizada das respostas fornecidas por sistemas de IA pode gerar uma sensação ilusória de avanço terapêutico, mesmo que não haja mudanças estruturais no funcionamento psíquico do indivíduo. Essa percepção equivocada retarda o início de um tratamento clínico adequado, favorecendo a cronificação do sofrimento.
Em situações clínicas sensíveis como: lutoLuto Reação emocional natural e esperada diante da perda definitiva de algo ou alguém com quem se tinha um vínculo afetivo significativo, envolvendo fases de adaptação., trauma, abuso ou crises existenciais, a IA pode emitir respostas genéricas, fora de contexto ou tecnicamente inadequadas. Isso pode gerar desorganização emocional intensa, reativação de memórias traumáticas ou agravamento da instabilidade psíquica do indivíduo.
A interação constante com IAs pode levar à idéia de que o processo psicoterapêutico se resume a conversas pontuais ou respostas rápidas, contribuindo para uma visão superficial e mecanicista da psicoterapia. Isso pode criar expectativas irreais em relação ao trabalho clínico e comprometer o engajamento futuro com profissionais humanos.
Para indivíduos com fobia socialFobia Social Medo acentuado de situações sociais onde o indivíduo possa ser observado ou julgado negativamente por terceiros. , transtornos de ansiedade ou dificuldades de vínculo, o uso excessivo da IA pode funcionar como estratégia de evitação, perpetuando o distanciamento interpessoal e dificultando o desenvolvimento de habilidades sócio-emocionais importantes.
A experiência de interagir com uma IA como substituta da psicoterapia pode deixar seqüelas emocionais e comportamentais relevantes, especialmente em pessoas vulneráveis. É fundamental compreender que a IA não realiza psicoterapia, mas sim oferece suporte automatizado que, quando mal utilizado, pode comprometer o bem-estar psíquico do usuário.
O cuidado com a saúde mental deve ser conduzido por profissionais qualificados, sob critérios clínicos, éticos e humanos, que envolvem escuta empática, julgamento clínico e vínculo terapêutico real, elementos que nenhum sistema artificial é capaz de oferecer plenamente