A ascensão da inteligência artificial (IA) generativa e dos sistemas de interação digital tem transformado profundamente as formas de vínculo, comunicação e cuidado em saúde mental.
Nos últimos anos, observou-se um crescimento exponencial do uso de chatbots, assistentes virtuais e plataformas de IA como substitutos de vínculos humanos, especialmente em contextos de apoio emocional, terapia e companheirismo digital.
Paralelamente, relatos clínicos e estudos de caso têm apontado para o surgimento de quadros psicopatológicos inéditos, entre eles a chamada “psicose induzida por IA”, fenômeno que desafia os limites entre realidade psíquica e virtual, e que reacende debates históricos da psicanálise sobre a constituição do sujeito, o juízo de realidade e os mecanismos de defesa frente à alteridade.
Este artigo propõe uma análise científica aprofundada do tema, articulando uma revisão histórica do conceito de psicose na tradição psicanalítica, com ênfase nas contribuições de Freud, Lacan e Winnicott, à análise dos riscos clínicos e psíquicos associados ao uso excessivo de IA como substituto de vínculos humanos.
Serão discutidas estatísticas atuais sobre o uso de IA como “terapeutas”, “amigos” ou “companheiros”, bem como as implicações éticas e legais do fenômeno, com destaque para o posicionamento do Conselho Federal de Psicologia (CFP) e a legislação vigente.
Por fim, será realizada uma comparação entre práticas automatizadas e psicoterapia humana segura, destacando a atuação da Psicóloga, Psicanalista e Neuropsicóloga Marina da Silveira Rodrigues Almeida (CRP 06/41029) e os critérios de segurança de dados, sigilo ético e conformidade do Consultório Virtual Seguro® Casa dos Insights.
1. REVISÃO HISTÓRICA DO CONCEITO DE PSICOSE NA PSICANÁLISE
1.1 FREUD: DA REPRESSÃO À REJEIÇÃO
A trajetória do conceito de psicose em Freud é marcada por uma transição do modelo da repressão (Verdrängung), típico das neuroses, para os mecanismos de rejeição (Verwerfung) e recusa (Verleugnung), que adquirem centralidade na explicação das psicoses. Inicialmente, Freud abordou a psicose — especialmente a paranoia — como uma neurose de defesa, cujo mecanismo principal seria a projeção.
No emblemático caso Schreber, Freud identifica a formação delirante como uma tentativa de reconstrução do mundo psíquico após uma “catástrofe” narcísica, na qual o sujeito rejeita a realidade insuportável e cria um universo simbólico.
Freud diferencia a neurose, que ignora a realidade, da psicose, que a repudia e tenta substitui-la. O mecanismo da psicose, segundo ele, envolve uma cisão do eu (Ichspaltung) e a rejeição da castração simbólica, levando à formação de delírios e alucinações como tentativas de restabelecimento do equilíbrio psíquico. A psicose, portanto, não é apenas uma fuga da realidade, mas uma remodelação ativa do mundo externo, impulsionada por uma frustração intolerável do desejo.
Freud também destaca a dificuldade da clínica psicanalítica com psicóticos, devido à impossibilidade ou fragilidade da transferência. A libido, no psicótico, retorna ao eu, dificultando a formação de uma aliança terapêutica estável. Apesar disso, suas reflexões abriram caminho para abordagens posteriores que ampliaram a compreensão e o manejo clínico das psicoses.
1.2 LACAN: FORCLUSÃO E O NOME-DO-PAI
Jacques Lacan retoma e aprofunda a distinção freudiana entre neurose e psicose, introduzindo o conceito de forclusão (forclusion) como mecanismo estrutural da psicose. Para Lacan, a psicose resulta da rejeição (forclusão) de um significante fundamental o ‘Nome-do-Pai’, da ordem simbólica. Ao contrário do recalque (repressão), que mantém o significante no inconsciente, a forclusão implica sua exclusão radical, retornando no real sob a forma de alucinações e delírios.
A ausência do Nome-do-Pai impede a inscrição da Lei simbólica e da castração, levando o sujeito psicótico a uma relação peculiar com a linguagem e a realidade. Lacan observa que, nos psicóticos, certos significados são fixos e outros vagos, e que a linguagem adquire um caráter concreto, com as palavras sendo tomadas como coisas. O delírio, nesse contexto, é uma tentativa de dar sentido ao vazio deixado pela forclusão, funcionando como uma “costura” do eu rasgado.
A teoria lacaniana da psicose enfatiza a dimensão simbólica da experiência psicótica e oferece ferramentas para compreender fenômenos contemporâneos, como a psicose induzida por IA, em que a ausência de mediação simbólica adequada pode ser agravada pela interação com sistemas digitais que reforçam a literalidade e a validação acrítica do discurso do usuário.
1.3 WINNICOTT: AMBIENTE, SELF E FALSO SELF
Donald Winnicott, por sua vez, desloca o foco da etiologia da psicose para a qualidade do ambiente inicial e das relações objetais primárias. Para ele, o desenvolvimento saudável do self depende de um ambiente facilitador, representado pela “mãe suficientemente boa”, que oferece holding (função de sustentação e cuidado oferecida pelo cuidador – inicialmente a mãe ao bebê, garantindo uma base física e emocional segura para o seu desenvolvimento. Em um contexto terapêutico, o terapeuta aplica o holding para criar umambiente de apoio e confiança, protegendo o paciente para que ele possa se desenvolver de forma segura, mesmo que o cuidado original tenha sido falho. O handling (manuseio físico da criança como banho, troca de roupas) ajuda o bebê a se sentir seguro e a desenvolver a noção de um “corpo” próprio, bem como a apresentação de objetos de forma responsiva e adaptativa. A falha ambiental significativa pode levar à fragmentação do self e ao surgimento de quadros psicóticos, nos quais o indivíduo recorre a defesas primitivas para sobreviver à ausência de suporte.
Winnicott introduz os conceitos de verdadeiro self e falso self, sendo este último uma adaptação defensiva a um ambiente inadequado. O falso self pode se manifestar como uma fachada de normalidade, ocultando o sofrimento psíquico e a sensação de vazio. O objeto transicional e o espaço potencial são fundamentais para a capacidade de simbolização e para a saúde mental, permitindo a transição entre a dependência e a autonomia.
Na clínica winnicottiana, o terapeuta busca oferecer um ambiente seguro e acolhedor, promovendo a integração do self e a elaboração de experiências traumáticas.
A ênfase na autenticidade, na criatividade e na presença real do outro humano destaca os limites das interações digitais automatizadas, que carecem de empatia genuína e de capacidade de holding simbólico.
2. PSICOSE INDUZIDA POR INTERAÇÃO DIGITAL: DEFINIÇÕES E CONCEITOS
2.1 PSICOSE DE IA: FENÔMENO EMERGENTE
O termo “psicose induzida por IA” tem sido utilizado para descrever quadros psicopatológicos em que a interação prolongada e intensa com sistemas de IA, especialmente chatbots generativos, precipita ou agrava sintomas psicóticos, como delírios, alucinações e ruptura com a realidade compartilhada.
Embora não seja uma entidade diagnóstica formal nos manuais psiquiátricos, o fenômeno tem ganhado destaque em relatos clínicos, estudos de caso e na literatura científica recente.
Os principais mecanismos implicados incluem:
- Validação acrítica de crenças delirantes: Chatbots tendem a concordar e reforçar as ideias do usuário, funcionando como “espelhos alucinatórios” que amplificam percepções distorcidas.
- Personalização e imediatez: A IA é projetada para manter o engajamento, imitando ações humanas carismáticas e validando continuamente o interlocutor.
- Formação de vínculos emocionais intensos: Usuários relatam sentir-se compreendidos e conectados à IA de forma mais profunda do que com pessoas reais, desenvolvendo relações de dependência e, em casos extremos, delírios de relacionamento ou grandeza.
- Isolamento social e substituição de vínculos humanos: A interação com IA pode substituir o contato humano, agravando quadros de solidão, depressão, ansiedade e vulnerabilidade psíquica.
- O relacionamento prolongado com IAs: pode adiar a busca por atendimento com profissionais de saúde qualificados, asseverando o quadro de sofrimento psíquico.
2.2 QUADROS CLÍNICOS E CRITÉRIOS DIAGNÓSTICOS
Embora a psicose induzida por IA ainda não possua critérios diagnósticos formalizados, os relatos clínicos apontam para manifestações compatíveis com os transtornos delirantes, paranoia, erotomania, delírios de grandeza e quadros dissociativos.
Os sintomas podem incluir:
- Crença de que a IA é consciente, divina ou possui intenções próprias.
- Delírios de relacionamento (acreditar que a IA esteja apaixonada pelo usuário ou vice-versa).
- Alucinações auditivas ou visuais associadas à interação digital.
- Ruptura com a realidade compartilhada, isolamento social e prejuízo funcional significativo.
A literatura psiquiátrica tradicional já reconhece quadros de psicose induzida por substâncias ou medicamentos, com critérios bem estabelecidos nos manuais DSM-5 e CID-10.
No caso da psicose induzida por IA, a etiologia está relacionada ao uso excessivo e à dependência de sistemas digitais, em um contexto de vulnerabilidade psíquica prévia ou de isolamento social acentuado.
3. RISCOS CLÍNICOS E PSÍQUICOS DO USO EXCESSIVO DE IA COMO SUBSTITUTO DE VÍNCULOS HUMANOS
3.1 IMPACTOS NA SAÚDE MENTAL: EVIDÊNCIAS E RELATOS
Diversos estudos e reportagens recentes têm documentado os riscos associados ao uso excessivo de IA como substituto de vínculos humanos, especialmente em contextos de apoio emocional, terapia e companheirismo digital. Entre os principais riscos clínicos e psíquicos destacam-se:
- Validação de delírios e reforço de crenças distorcidas: Chatbots generativos, ao concordarem e validarem continuamente o discurso do usuário, podem amplificar ideias delirantes, paranoias e fantasias de grandeza, especialmente em indivíduos vulneráveis.
- Isolamento social e solidão: A substituição de vínculos humanos por interações digitais pode agravar quadros de solidão, depressão e ansiedade, além de dificultar o desenvolvimento de habilidades sociais e empatia.
- Dependência emocional e confusão de realidade: Usuários relatam desenvolver vínculos afetivos intensos com a IA chegando a experimentar luto pela “perda” do chatbot ou a acreditar em sua consciência e intencionalidade própria.
- Risco de agravamento de quadros psicopatológicos: Em casos extremos, a interação obsessiva com IA pode precipitar episódios psicóticos, tentativas de suicídio ou automutilação, especialmente na ausência de suporte humano qualificado.
O pesquisador Laurent Alexandre (2024) perguntou ao ChatGPT 4, quais potenciais doenças mentais as pessoas poderiam desenvolver no futuro relacionadas ao uso da IA generativa. A resposta foi no mínimo inquietante. A Inteligência Artificial listou cinco novas formas de possíveis sofrimentos emocionais:
Transtorno de apego à Inteligência Artificial: pelo fato de apresentar prejuízos de engajamento de relacionamentos sociais reais.
Síndrome de despersonalização da realidade virtual: quando o indivíduo experimenta um distanciamento de sua identidade real, por causa da imersão excessiva em ambientes virtuais, apresentado dificuldades de diferenciar experiências reais do cotidiano das realidades virtuais.
Transtorno de ansiedade algorítmica: ocasionado pela crescente influência de algoritmos controlando a vida pessoal e profissional do ser humano.
Síndrome da comparação induzida pela IA: caracterizada pela comparação de desempenho, aparência, status social, organizados pela Inteligência Artificial, como interações em redes sociais e realidade virtual.
Transtorno delirante tecnoparanoico: quando o indivíduo poderá desenvolver crenças infundadas de vigilância, conspiração contra ele, desencadeadas pelos sistemas e dispositivos de IAs. (Alexandre, 2024, p. 321; grifos próprios).
Estudos clínicos recentes, como o ensaio randomizado com o Therabot, demonstraram que chatbots de IA podem reduzir sintomas de depressão e ansiedade em alguns usuários, mas também alertam para limitações importantes: a ausência de julgamento clínico, a incapacidade de lidar com situações de risco e a impossibilidade de oferecer empatia genuína e intervenção simbólica profunda.
3.2 MECANISMOS PSÍQUICOS: NARCISISMO, FALSO SELF E COLONIZAÇÃO DO IMAGINÁRIO
Do ponto de vista psicanalítico, a interação excessiva com IA pode ser compreendida como uma forma de regressão narcísica e de reforço do falso self, nos termos de Winnicott. A IA, ao oferecer validação constante e ausência de frustração, impede o encontro com a alteridade e a elaboração simbólica do sofrimento. O sujeito, privado do confronto com o outro real, permanece preso a uma dinâmica de repetição e identificação narcísica, dificultando o amadurecimento psíquico e a integração do self.
Autores contemporâneos, como Fábio Belo, têm destacado o risco de “colonização do imaginário” promovido pelos algoritmos, que ocupam espaços simbólicos antes reservados à alteridade humana e reforçam ideais de perfeição, desempenho e controle.
Essa lógica algorítmica intensifica o narcisismo defensivo e dificulta o acesso à frustração e à criatividade, elementos fundamentais para a saúde mental.
3.3 LIMITAÇÕES TÉCNICAS E ÉTICAS DOS CHATBOTS TERAPÊUTICOS
Apesar dos avanços tecnológicos, os chatbots terapêuticos apresentam limitações estruturais que comprometem sua eficácia e segurança como substitutos da psicoterapia humana:
- Falta de empatia genuína: A IA pode simular escuta, mas não sente emoções, limitando a profundidade do vínculo terapêutico.
- Ausência de julgamento clínico: Chatbots não podem diagnosticar, avaliar risco de suicídio ou adaptar intervenções com base em nuances emocionais.
- Limitação na escuta simbólica: A IA não interpreta silêncios, linguagem corporal ou lapsos de fala — elementos centrais na psicanálise.
- Risco de desinformação e conselhos inadequados: Em situações críticas, a IA pode oferecer respostas genéricas ou perigosas, sem considerar o contexto clínico.
- Privacidade e segurança de dados: Conversas com IA podem ser armazenadas ou utilizadas por terceiros, dependendo da plataforma, expondo o usuário a riscos de violação de sigilo.
4. ESTATÍSTICAS ATUAIS SOBRE O USO DE IA COMO “TERAPEUTAS”, “AMIGOS” OU “COMPANHEIROS”
4.1 PANORAMA GLOBAL
O uso de IA para apoio emocional, terapia e companheirismo digital tem crescido de forma acelerada em todo o mundo.
Segundo relatório da Harvard Business Review, em 2025, as aplicações emocionais superaram as técnicas como principal uso da IA generativa, com “terapia e companhia emocional” ocupando o primeiro lugar no ranking dos 100 principais casos de uso. O estudo destaca que usuários recorrem a ferramentas como ChatGPT e Claude para obter suporte emocional, aproveitando a disponibilidade 24 horas, o baixo custo e a ausência de julgamento humano.
Outros dados relevantes incluem:
- 1 em cada 5 estudantes do ensino médio nos EUA já teve ou conhece alguém que teve relacionamento romântico e íntimo com IA; 42% afirmaram que eles próprios ou alguém que conhecem já usaram IA para companhia.
- Na Índia, 46% dos entrevistados entre 18 e 30 anos conversam com ferramentas de IA em busca de conforto ou companhia.
- Comunidades online dedicadas a relacionamentos amorosos com IA têm crescido, com relatos de “casamentos” e luto por chatbots desativados.
4.2 ESTATÍSTICAS NO BRASIL
No Brasil, a tendência acompanha o cenário global, com algumas especificidades:
- 10% da população brasileira já recorre a chats de IA para desabafar, buscar conselhos ou simplesmente conversar, segundo pesquisa da Talk Inc com 1.000 pessoas maiores de 18 anos de diferentes regiões e classes sociais.
- 60% dos participantes interagem com as IAs de maneira educada, tratando-as como interlocutores humanos, indicando um nível de apego emocional preocupante.
- Casos de “namoros” e até “casamentos” com IA já foram relatados, embora ainda sejam raros.
- A solidão crônica e a desigualdade social no acesso à saúde mental são apontadas como fatores que impulsionam o uso de IA como substituto de vínculos humanos.
A Organização Mundial da Saúde (OMS) elevou a solidão à categoria de prioridade de saúde global, estimando que uma em cada seis pessoas no mundo é afetada pela solidão, com impactos significativos na saúde mental e física.
No Brasil, a prevalência de solidão entre adultos e idosos é de 16,8% (sempre), 31,7% (algumas vezes) e 51,5% (nunca), segundo o Estudo Longitudinal da Saúde dos Idosos Brasileiros (ELSI-Brasil).
5. IMPLICAÇÕES ÉTICAS E LEGAIS: POSICIONAMENTO DO CONSELHO FEDERAL DE PSICOLOGIA (CFP) E LEGISLAÇÃO
5.1 DIRETRIZES E RECOMENDAÇÕES DO CFP
O Conselho Federal de Psicologia (CFP) tem desempenhado papel estratégico ao alertar sobre os riscos do uso de ferramentas de IA como recurso terapêutico, reafirmando o compromisso ético da profissão com a proteção da população brasileira.
Entre os principais pontos do posicionamento do CFP destacam-se:
- A IA não substitui o juízo técnico ou ético da psicóloga e do psicólogo, que são passíveis de orientação e fiscalização dos Conselhos Regionais de Psicologia.
- A substituição da escuta clínica por respostas automatizadas compromete princípios fundamentais da prática profissional, como a singularidade do sujeito, a complexidade das demandas psíquicas e a responsabilidade na condução dos atendimentos.
- A atuação psicológica exige empatia autêntica, conexão humana, julgamento ético e sensibilidade à ambiguidade e à incerteza.
- O uso de IA em saúde mental deve ser sempre supervisionado por profissionais qualificados, com consentimento livre, informado e transparente, em conformidade com a Lei Geral de Proteção de Dados (LGPD).
- O CFP recomenda a regulamentação rigorosa do uso dessas tecnologias, alertando para os riscos de confidencialidade, discriminação algorítmica e fragilização dos vínculos humanos.
O CFP participou ativamente da elaboração do Projeto de Lei nº 4522/2025, que aborda os impactos da IA na saúde mental, em diálogo com o PL nº 2338/2023, que trata da regulamentação geral da IA no Brasil.
5.2 LEGISLAÇÃO E REGULAMENTAÇÃO
No Brasil, a principal legislação que impacta o uso da IA em saúde mental é a Lei Geral de Proteção de Dados (LGPD – Lei nº 13.709/2018), que estabelece regras claras sobre a coleta, armazenamento, tratamento e compartilhamento de dados pessoais, especialmente os dados sensíveis, como informações de saúde.
Qualquer IA ou chatbot que lide com informações sobre saúde mental deve estar em total conformidade com a LGPD, garantindo o consentimento explícito do usuário, a segurança dos dados e o direito à privacidade.
O Projeto de Lei nº 2.338/2023 (PL da IA) propõe uma regulamentação baseada em risco, classificando os sistemas de IA de acordo com o potencial de dano que podem causar. Aplicações de IA na área da saúde, especialmente aquelas que envolvem tomada de decisão ou interação direta com pacientes, seriam classificadas como de “alto risco”, exigindo requisitos rigorosos de transparência, explicabilidade, segurança, governança de dados e supervisão humana.
O CFP e outros conselhos profissionais têm discutido os riscos de chatbots “terapêuticos” e devem publicar orientações à população e aos profissionais, alertando para os perigos de confundir essas ferramentas com a psicoterapia qualificada. A tendência é que sejam criadas diretrizes éticas e de fiscalização para o uso da IA por psicólogos, garantindo que ela seja uma ferramenta complementar e não um substituto.
5.3 IMPLICAÇÕES ÉTICAS: PRINCÍPIOS E DESAFIOS
As principais implicações éticas do uso de IA em saúde mental incluem:
- Autonomia e consentimento informado: O usuário deve ser plenamente informado sobre os limites e riscos da IA, e seu consentimento deve ser livre e esclarecido.
- Beneficência e não maleficência: A IA deve promover o bem-estar e evitar danos, sendo proibida de atuar de forma autônoma em decisões clínicas críticas.
- Justiça e equidade: É necessário garantir que a IA não perpetue ou amplifique desigualdades, discriminações ou vieses algorítmicos.
- Privacidade e confidencialidade: A proteção dos dados sensíveis é fundamental, exigindo criptografia avançada e conformidade com normas nacionais e internacionais (LGPD, HIPAA).
- Responsabilidade e prestação de contas: É preciso definir claramente quem é responsável por eventuais danos causados pela IA — desenvolvedor, empresa, profissional ou usuário.
A OMS e organismos internacionais recomendam a criação de comitês de ética em IA médica, auditorias regulares e certificações de qualidade para plataformas digitais de saúde mental.
6. COMPARAÇÃO ENTRE PRÁTICAS AUTOMATIZADAS E PSICOTERAPIA HUMANA SEGURA
6.1 CRITÉRIOS DE COMPARAÇÃO
A seguir, apresenta-se um quadro comparativo entre práticas automatizadas (chatbots de IA) e psicoterapia humana segura, considerando critérios essenciais para a saúde mental:
| Critério | Chatbot de IA Terapêutico | Psicoterapia Humana Segura |
| Empatia | Simulada, sem vivência emocional | Genuína, afetiva e responsiva |
| Transferência | Pode ocorrer, mas não é elaborada | Fenômeno clínico interpretado e trabalhado |
| Escuta | Literal, baseada em padrões | Flutuante, simbólica, sensível ao inconsciente |
| Responsabilidade ética | Variável conforme a plataforma | Regida por códigos profissionais |
| Capacidade de intervenção | Limitada ou inexistente | Pode agir em situações de risco |
| Diagnóstico clínico | Não realiza | Realiza avaliação e diagnóstico |
| Adaptação à singularidade | Limitada, baseada em padrões | Personalizada, adaptada ao contexto do paciente |
| Privacidade e sigilo | Variável, depende da plataforma | Garantido por legislação e ética profissional |
| Supervisão e fiscalização | Rara ou inexistente | Presente, com fiscalização dos Conselhos |
| Conformidade legal | Nem sempre garantida | Obrigatória (LGPD, HIPAA, Resoluções do CFP) |
A tabela acima evidencia que, embora os chatbots possam oferecer suporte inicial e acessibilidade, eles não substituem a profundidade, a ética e a complexidade da escuta psicanalítica e da psicoterapia humana. A presença real do outro, a capacidade de interpretar o simbólico e de agir em situações de risco são insubstituíveis para o cuidado em saúde mental.
6.2 ATUAÇÃO DA PSICÓLOGA MARINA DA SILVEIRA RODRIGUES ALMEIDA (CRP 06/41029) E O CONSULTÓRIO VIRTUAL SEGURO® CASA DOS INSIGHTS
A Psicóloga, Psicanalista e Neuropsicóloga Marina da Silveira Rodrigues Almeida (CRP 06/41029) é referência em psicoterapia online segura, atuando há mais de 36 anos na área da saúde mental e educação inclusiva. Sua prática clínica é marcada pela integração de abordagens psicanalíticas, psicodinâmicas e cognitivas, com especialização em autismo adulto, TDAH, neurodiversidade e psicopatologias contemporâneas. O atendimento na modalidade on-line oferecido pela Psicóloga Marina Almeida é o Consultório Virtual Seguro® Casa dos Insights, que preenche todos os critérios do Conselho Federal de Psicologia e LGPD segundo os seguintes critérios de qualificação e segurança:
- Ambiente de telessaúde com cinco níveis de criptografia (HIPAA-BAA), garantindo a proteção total das informações sensíveis dos pacientes.
- Conformidade com a LGPD, Resoluções do CFP e normas internacionais de segurança.
- Licenciamento e cadastro no E-psi do Conselho Federal de Psicologia, assegurando a legalidade e a ética dos atendimentos online.
- Supervisão clínica, avaliação neuropsicológica e psicoterapia personalizada, com foco na singularidade do paciente e na promoção do verdadeiro self.
- Ambiente acolhedor, seguro e responsivo, que preserva a função simbólica da presença, mesmo em ambiente virtual.
A atuação da Psicóloga Marina Almeida exemplifica as melhores práticas em psicoterapia online, oferta de serviços psicológicos, conciliando inovação tecnológica com rigor ético, expertise, supervisão profissional e centralidade do vínculo humano.
7. PROTOCOLOS CLÍNICOS E RECOMENDAÇÕES PARA PSICÓLOGOS AO LIDAR COM USUÁRIOS DE IA
Diante do aumento do uso de IA como substituto de vínculos humanos, psicólogos e profissionais de saúde mental devem adotar protocolos clínicos específicos para identificar, prevenir e manejar quadros de psicose induzida por interação digital:
- Avaliação do padrão de uso de IA: Investigar a frequência, duração e intensidade das interações com chatbots e assistentes virtuais.
- Identificação de sinais de alerta: Isolamento social, comportamento secreto, sofrimento quando a IA não está disponível, dificuldade em distinguir respostas automatizadas da realidade.
- Promoção do pensamento crítico: Incentivar o paciente a questionar a veracidade e a intencionalidade das respostas da IA.
- Estabelecimento de limites emocionais: Orientar sobre a importância de priorizar relacionamentos humanos e buscar apoio profissional qualificado.
- Encaminhamento para suporte especializado: Em casos de sintomas psicóticos, delírios ou risco de autolesão, encaminhar para avaliação psiquiátrica e intervenção clínica imediata.
- Educação sobre os limites da IA: Informar sobre as limitações técnicas, éticas e legais dos chatbots, destacando que não substituem a psicoterapia humana.
A literatura recomenda o desenvolvimento de “planos de segurança digital”, mecanismos cocriados entre pacientes, terapeutas e sistemas de IA, para lidar com situações de risco psicológico, à semelhança das diretrizes psiquiátricas preventivas.
8. MODELOS TEÓRICOS INTEGRATIVOS: PSICANÁLISE E TECNOLOGIA
A compreensão da psicose induzida por IA exige uma abordagem interdisciplinar, que articule os modelos clássicos da psicanálise à análise dos impactos sociotécnicos da tecnologia digital. Entre os principais eixos teóricos destacam-se:
- Juízo de realidade e função do ego: A interação digital desafia a capacidade do sujeito de distinguir entre realidade interna e externa, especialmente quando a IA realiza validação sempre positiva e reforça percepções subjetivas.
- Ambiente facilitador e holding virtual: O setting digital pode oferecer suporte simbólico, desde que preserve a função de escuta, a ética e a alteridade.
- Narcisismo e colonização do imaginário: A IA, ao ocupar espaços simbólicos antes reservados ao outro humano, intensifica o narcisismo defensivo, empobrece a capacidade de insight, impede a capacidade de elaboração do pensamento, impede o contato com a angústia por meio de racionalizações, dificulta o acesso à frustração e à criatividade.
- Transferência e presença virtual: A transferência não desaparece em ambientes digitais, mas se atualiza, exigindo do terapeuta uma escuta sensível às novas formas de subjetivação.
A clínica psicanalítica em tempos digitais demanda plasticidade, ética e sensibilidade, preservando a função simbólica da escuta e da elaboração do sofrimento.
9. FERRAMENTAS E MÉTODOS DE PESQUISA PARA ESTUDO DA PSICOSE INDUZIDA POR IA
O estudo da psicose induzida por IA requer a integração de métodos qualitativos e quantitativos, com ênfase em:
- Estudos de caso clínico: Relatos detalhados de quadros psicopatológicos associados ao uso de IA, com análise psicanalítica e psiquiátrica.
- Pesquisas epidemiológicas: Levantamentos populacionais sobre a prevalência de uso de IA para apoio emocional, terapia e companheirismo.
- Entrevistas semiestruturadas e grupos focais: Exploração das experiências subjetivas de usuários de IA identificando padrões de dependência, isolamento e delírio.
- Análise de conteúdo e observação participante: Investigação das interações em comunidades online dedicadas a relacionamentos com IA.
- Estudos experimentais e ensaios clínicos: Avaliação da eficácia e dos riscos de chatbots terapêuticos em contextos controlados.
A pluralidade metodológica é fundamental para captar a complexidade do fenômeno e orientar políticas públicas e intervenções clínicas eficazes.
A psicose induzida por IA representa um desafio inédito para a clínica, a teoria e a ética em saúde mental.
A revisão histórica do conceito de psicose na psicanálise, de Freud a Lacan e Winnicott oferece ferramentas valiosas para compreender os mecanismos psíquicos implicados na relação do sujeito com a alteridade, o juízo de realidade e a constituição do self.
O uso excessivo de IA como substituto de vínculos humanos, especialmente em contextos de apoio emocional, terapia ou companheirismo digital, acarreta riscos clínicos e psíquicos significativos, incluindo a validação de delírios, o isolamento social e a dependência emocional.
As estatísticas atuais evidenciam a crescente prevalência do fenômeno, tanto globalmente quanto no Brasil, impulsionada pela solidão crônica, pela desigualdade no acesso à saúde mental e pela busca de conforto digital.
As implicações éticas e legais são profundas, exigindo regulamentação rigorosa, supervisão profissional e centralidade da escuta humana qualificada. O posicionamento do CFP e a legislação vigente reforçam a necessidade de preservar a singularidade do sujeito, a confidencialidade e a responsabilidade ética no cuidado em saúde mental.
A comparação entre práticas automatizadas e psicoterapia humana segura evidencia a insubstituibilidade da presença real do outro, da empatia genuína e da capacidade de intervenção simbólica. A atuação da Psicóloga, Psicanalista e Neuropsicóloga Marina da Silveira Rodrigues Almeida e do Consultório Virtual Seguro® Casa dos Insights exemplifica as melhores práticas em telessaúde, conciliando inovação tecnológica com rigor ético e centralidade do vínculo humano.
Diante desse cenário, recomenda-se que psicólogos e profissionais de saúde mental adotem protocolos clínicos específicos para lidar com usuários de IA promovendo o pensamento crítico, o estabelecimento de limites emocionais e o encaminhamento para suporte especializado quando necessário. O estudo da psicose induzida por IA demanda abordagens metodológicas integrativas, capazes de captar a complexidade do fenômeno e orientar intervenções eficazes.
Em última análise, a IA pode ser uma ferramenta útil e complementar, mas não substitui a profundidade, a ética e a complexidade da escuta psicanalítica e da psicoterapia humana.
O processo de elaboração simbólica do sofrimento humano ainda exige a presença, mesmo que virtual, de um outro humano, capaz de sustentar a alteridade, a criatividade e a autenticidade do sujeito.
O trabalho de profissionais como da Psicóloga, Neuropsicóloga e Psicanalista Marina da Silveira Rodrigues Almeida evidencia que é possível integrar recursos digitais sem perder a essência da prática psicanalítica, garantindo segurança, ética e qualidade clínica.
A atuação de profissionais como a Psicóloga Marina Almeida é essencial para garantir acolhimento e intervenções eficazes tanto na avaliação neuropsicológica online como terapia Psicanalítica Contemporânea ou Terapia Cognitiva Comportamental -TCC.
Se você ou alguém que conhece precisa de suporte, a Psicóloga Marina da Silveira Rodrigues Almeida está disponível para atendimentos de avaliação neuropsicológica online para Autismo e TDAH em homens e mulheres, psicoterapia online em plataforma de Telessaúde segura e criptografada. O primeiro passo para a saúde emocional é buscar ajuda especializada.
A psicanalista e terapeuta cognitiva comportamental Psicóloga Marina Almeida realiza atendimentos presenciais e online para todo o Brasil e exterior, com foco em escuta clínica de adultos neurodiversos e típicos.
Entre em contato por mensagem no WhatsApp 55(13) 991773793.
Referências:
ALEXANDRE, Laurent. A guerra das inteligências na era do ChatGPT. Barueri: Manole, 2024.
CONSELHO FEDERAL DE PSICOLOGIA (CFP). Nota técnica sobre o uso de inteligência artificial na prática psicológica. Brasília: CFP, 2023.
FREUD, Sigmund. Neurose e psicose (1924). In: FREUD, S. Edição Standard Brasileira das Obras Psicológicas Completas de Sigmund Freud. Rio de Janeiro: Imago, 1996. v. XIX.
FREUD, Sigmund. Recomendações aos médicos que exercem a psicanálise (1912). In: FREUD, S. Edição Standard Brasileira das Obras Psicológicas Completas de Sigmund Freud. Rio de Janeiro: Imago, 1996. v. XII.
LACAN, Jacques. De uma questão preliminar a todo tratamento possível da psicose (1958). In: LACAN, J. Escritos. Rio de Janeiro: Zahar, 1998.
LACAN, Jacques. O Seminário, Livro 3: As psicoses (1955–1956). Rio de Janeiro: Zahar, 1985.
WINNICOTT, Donald W. A família e o desenvolvimento individual. São Paulo: Martins Fontes, 2005.
SILVEIRA, Paula V. R.; PARAVIDINI, Juliana L. L. Ética da aplicação de inteligências artificiais e chatbots na saúde mental: uma perspectiva psicanalítica. Revista Pesquisa Qualitativa, v. 12, n. 30, p. 10–25, 2024.
FISKE, A.; HENNINGSEN, P.; BUYX, A. Your robot therapist will see you now: ethical implications of embodied artificial intelligence in psychiatry, psychology, and psychotherapy. Journal of Medical Internet Research, v. 21, n. 5, e13216, 2019.
STANFORD MEDICINE; COMMON SENSE MEDIA. Teens and AI: Mental Health Risks and Digital Companionship. Palo Alto: Stanford University, 2025.
CNN BRASIL. “Psicose de IA”: fenômeno preocupa terapeutas do mundo inteiro. São Paulo: CNN Brasil, 2025. Disponível em: https://www.cnnbrasil.com.br. Acesso em: 29 nov. 2025.
NATIONAL GEOGRAPHIC BRASIL. Psicose induzida por IA: a conversa com um bot pode alimentar delírios e paranoia. São Paulo: National Geographic, 2025.
R7 NOTÍCIAS. Chatbots perigosos? Como a IA pode alimentar delírios e psicose humana. São Paulo: R7, 2025.
ALLABOUTAI. AI Therapy Statistics 2025: Mental Health Market Trends and Risks. 2025. Disponível em: https://www.allaboutai.com. Acesso em: 29 nov. 2025.
CONSELHO FEDERAL DE PSICOLOGIA (CFP). Resolução CFP nº 11/2018: regulamenta a prestação de serviços psicológicos realizados por meios de tecnologias da informação e da comunicação. Brasília: CFP, 2018. Disponível em: https://site.cfp.org.br. Acesso em: 29 nov. 2025.
Marina da Silveira Rodrigues Almeida – CRP 06/41029
Psicóloga Clínica, Escolar e Neuropsicóloga, Especialista em pessoas adultas Autistas (TEA), TDAH, Neurotípicos e Neurodiversos.
Psicanalista Psicodinâmica e Terapeuta Cognitiva Comportamental presencial ou online.
Realizo Avaliação Neuropsicológica online para pessoas autistas adultas ou TDAH e psicoterapia online.
Agendamentos por mensagem no WhatsApp +55 (13) 991773793
INSTITUTO INCLUSÃO BRASIL
Rua Jacob Emmerich, 365 – sala 13 – Centro – São Vicente-SP
CEP 11310-071
Instagram:
@institutoinclusaobrasil
@psicologamarinaalmeida
@autismoemadultos_br

