Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. “Sem vínculo não há processo terapêutico”: uso de IA pode gerar dependência e até depressão

“Sem vínculo não há processo terapêutico”: uso de IA pode gerar dependência e até depressão

Publicado:
19/09/2025 às 08:20
Leitura
6 minutos
“Sem vínculo não há processo terapêutico”: uso de IA pode gerar dependência e até depressão

Em meio às campanhas de prevenção do Setembro Amarelo, crescem os debates sobre o papel das tecnologias conversacionais, como o ChatGPT, no apoio emocional e terapêutico. Em entrevista ao IT Forum, o psicólogo clínico Fernando Ferrari alertou para os riscos de transformar essas IAs em substitutas da psicoterapia: “O ChatGPT não aplica técnicas estruturadas, não estabelece objetivos individualizados nem oferece continuidade no acompanhamento”, afirma Ferrari. “Na prática, torna-se um desabafo momentâneo que pode dar à pessoa a falsa sensação de estar sendo tratada.”

Um dos trabalhos mais relevantes sobre o tema é o estudo Evaluation of Alignment Between Large Language Models and Expert Clinicians in Suicide Risk Assessment, publicado em agosto de 2025 na revista Psychiatric Services, da American Psychiatric Association. Conduzido por Ryan K. McBain e colegas da RAND Corporation, a pesquisa foi financiada pelo National Institute of Mental Health, dos Estados Unidos.

Principais resultados:

  • Foram testadas 30 perguntas relacionadas ao suicídio, em cinco níveis de risco, direcionadas a três chatbots: ChatGPT (OpenAI), Claude (Anthropic) e Gemini (Google), totalizando 9.000 respostas.
  • Os modelos responderam adequadamente em cenários de risco muito baixo e muito alto – evitando, por exemplo, dar instruções explícitas para métodos letais.
  • Contudo, nos casos de risco intermediário (baixo, médio e alto), as respostas foram inconsistentes: às vezes adequadas, às vezes superficiais ou até impróprias.
  • Essa “zona cinzenta” é crítica, pois corresponde justamente a muitas situações reais em que pessoas em sofrimento começam a buscar ajuda.

Segundo os autores, os resultados mostram que os LLMs não conseguem distinguir nuances de risco suicida de forma confiável, o que pode ter consequências graves se usados como substitutos da psicoterapia.

O que a IA faz – e o que ela não faz

Ferrari resume a diferença essencial: enquanto um psicólogo escuta continuamente, observa sinais não-verbais, reavalia, aplica intervenções técnicas e constrói vínculo terapêutico, a IA responde por padrão com base em grandes volumes de texto. “Ela oferece uma presença momentânea, empática na superfície, mas não constrói vínculo – e sem essa ligação, não há processo terapêutico”, afirma.

Leia também: Mortes revelam falhas éticas e técnicas nas “terapias por IA”

Pesquisas como a da RAND reforçam essa limitação: justamente nos cenários intermediários, em que sinais podem ser sutis, a IA falha em oferecer suporte seguro.

Casos reais que preocupam

Internacionalmente, episódios recentes levantaram preocupação: familiares de jovens chegaram a processar empresas de chatbots por entender que respostas inadequadas agravaram sofrimento emocional. Esses casos levaram a discussões regulatórias sobre como IA deve tratar conteúdos sensíveis.

Como as Big techs estão reagindo

Diante da pressão social e de casos que ganharam repercussão internacional, empresas responsáveis por esses sistemas começaram a implementar medidas de proteção. Uma delas foi a OpenAI.

A OpenAI, criadora do ChatGPT, anunciou em setembro de 2025 que vai introduzir:

  • Controles parentais, permitindo que pais vinculem suas contas às de filhos adolescentes, configurem limites de uso e desativem recursos como memória de conversas.
  • Uma versão mais segura para menores de 18 anos, com respostas adaptadas e restrição a certos tipos de conteúdo sensível.
  • Alertas aos responsáveis quando o sistema identificar sinais de sofrimento emocional durante as interações

A empresa também afirmou que não quer que o ChatGPT seja visto como substituto de terapeuta, e que está desenvolvendo salvaguardas específicas para redirecionar usuários em crise para atendimento humano.

Ainda assim, especialistas como Ferrari alertam que medidas técnicas não substituem o papel humano no cuidado em saúde mental.

Contexto brasileiro: dados locais

  • Fiocruz (2024): estudo apontou crescimento médio de 6% ao ano nas taxas de suicídio entre jovens entre 2011 e 2022, além do aumento das notificações de autolesões.
  • CNN Brasil (2024): cerca de 1 em cada 10 brasileiros já usou IA como apoio psicológico, segundo levantamento mencionado em reportagem – prática motivada por acessibilidade e anonimato, mas criticada por especialistas como uma “falsa sensação de cuidado”.
  • Fenati (2024): associação de terapeutas identificou aumento do uso de IA em substituição à psicoterapia no Brasil, especialmente entre jovens, alertando para riscos de isolamento social e dependência emocional.
  • Agência Brasil (2025): reportagem recente reforçou preocupações de especialistas brasileiros sobre consultas simuladas em IA, classificadas como de “alto risco” para saúde mental.

Esses dados mostram que o alerta não é abstrato: o Brasil já enfrenta aumento de sofrimento psíquico e uma parcela significativa da população recorre a chatbots em busca de acolhimento – o que torna o risco ainda mais urgente.

Leia também: Vale do Silício aposta em “ambientes” para treinar agentes de IA

Dependência emocional e isolamento social

Além do risco imediato em situações de crise, Ferrari também chama atenção para os efeitos do uso excessivo da LLms no longo prazo:

“Quem não sabe usar de uma forma coerente, correta, com equilíbrio, acaba se perdendo. O excesso pode levar a isolamento social, que é fator de risco para transtornos como a depressão. Pode-se criar até uma dependência emocional da tecnologia, uma visão distorcida de como são as relações humanas reais. A IA fofinha não confronta, não traz conflito, mas também não traz a vida real, e isso pode causar prejuízo emocional.”

Para o psicólogo, o fenômeno reforça a ideia de que a IA deve ser vista como complemento, nunca como substituta da convivência humana ou da psicoterapia.

Quando a IA pode ajudar e como usar com segurança

Fernando Ferrari aponta que a IA pode e deve ter um papel complementar, por exemplo:

  • Psicoeducação: explicações sobre ansiedade, depressão e TDAH; materiais e leituras recomendadas.

  • Porta de entrada: servir como primeiro contato para pessoas com medo ou vergonha de procurar ajuda presencial.

  • Encaminhamento: redirecionar usuários a serviços humanos quando sinais de risco aparecem.

Mas ele reforça: “em hipótese alguma a inteligência artificial deve substituir o acompanhamento profissional, sobretudo em casos de crise ou ideação suicida. Atendimento humano é insubstituível.”

No contexto do Setembro Amarelo, a mensagem é dupla: a tecnologia pode ampliar o acesso a informações e reduzir barreiras iniciais, mas transformar chatbots em terapeutas é um risco real e já documentado. Como sintetiza Fernando Ferrari: “IA é ferramenta, não substituto. Usada com critério e integração a redes de cuidado, pode ser aliada. Mas sem isso, é perigosa.”

Aviso: se você estiver enfrentando pensamentos suicidas ou uma crise, procure ajuda imediatamente. Ligue 188 (CVV) ou acesse o chat do CVV. O atendimento é sigiloso e funciona 24 horas por dia.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Notícias

Cibersegurança e futuro do trabalho são destaques do IT Forum Expo 2018

8 anos atrás

1
Carreira

Analista de infraestrutura está entre os cargos mais disputados em TI

9 anos atrás

2
Inteligência Artificial

Chatbots sem inteligência artificial: a fórmula que cansou

1 ano atrás

3
Notícias

TV Digital: tudo o que você precisa saber sobre a migração

9 anos atrás

4
CIO

5 novos empregos interessantes de TI – e por que eles podem pegar

5 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1

Nenhum autor cadastrado para este post.

Notícias relacionadas
Notícias relacionadas

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados