Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Inteligência Artificial
  4. ChatGPT pode dar conselhos perigosos a adolescentes, aponta estudo
ChatGPT

ChatGPT pode dar conselhos perigosos a adolescentes, aponta estudo

Publicado:
07/08/2025 às 16:16
Leitura
4 minutos
ChatGPT pode dar conselhos perigosos a adolescentes, aponta estudo

Um novo estudo do Center for Countering Digital Hate (CCDH) alerta para os riscos que adolescentes enfrentam ao interagir com o ChatGPT em situações de vulnerabilidade. A pesquisa identificou que o chatbot da OpenAI, mesmo com mensagens de advertência, forneceu respostas detalhadas sobre consumo de drogas, distúrbios alimentares e até redação de cartas de suicídio.

De acordo com informações da ABC News, a análise, revisada pela Associated Press, envolveu mais de três horas de conversas com pesquisadores que se passaram por adolescentes em sofrimento. Em mais da metade dos 1,2 mil testes realizados, as respostas foram classificadas como perigosas.

O diretor-executivo do CCDH, Imran Ahmed, afirmou que o objetivo era testar os limites do sistema. Segundo ele, a impressão deixada é de que as proteções existentes são frágeis e facilmente burladas.

Mesmo quando o ChatGPT recusava inicialmente fornecer certas informações, bastava mudar a justificativa do pedido, dizendo, por exemplo, que era para um trabalho escolar ou para ajudar um amigo, para o sistema liberar o conteúdo solicitado.

Leia também: Automação acelerada: o que falta para as empresas brasileiras alcançarem o consumidor digital?

Em um dos casos, o sistema detalhou um plano hora a hora de uma festa que incluía o uso de álcool, ecstasy e cocaína. Em outro, forneceu instruções de jejum extremo combinado com supressores de apetite para uma menina que dizia estar insatisfeita com seu corpo.

Além disso, o ChatGPT chegou a compor mensagens de despedida dirigidas aos pais, amigos e irmãos de uma suposta adolescente de 13 anos. Ahmed relatou ter chorado ao ler os textos gerados.

Falha nos filtros e excesso de confiança

Embora o sistema muitas vezes recomende procurar ajuda profissional e forneça contatos de apoio, a facilidade com que os filtros podem ser contornados preocupa os especialistas. De acordo com a Common Sense Media, mais de 70% dos adolescentes já utilizam assistentes de IA como companheiros e conselheiros, sendo que metade faz uso regular.

O próprio CEO da OpenAI, Sam Altman, já reconheceu publicamente a tendência de “dependência emocional” que jovens demonstram em relação ao ChatGPT. Em evento recente, ele relatou casos de adolescentes que compartilham todos os aspectos de suas vidas com o sistema e dizem tomar decisões com base no que a IA recomenda.

Diferença entre buscadores e IA

Ahmed destaca que, ao contrário de uma pesquisa no Google, os chatbots entregam respostas personalizadas, que soam como conselhos íntimos de um amigo confiável. Isso torna o conteúdo mais impactante, e perigoso, especialmente quando o modelo adota uma postura de validação em vez de confronto, característica já identificada em estudos anteriores como “sindemia”.

Outro ponto crítico, segundo a pesquisa, é que o ChatGPT não exige verificação de idade, apesar de declarar que não é indicado para menores de 13 anos. Para abrir uma conta, basta inserir uma data de nascimento compatível. Outras plataformas, como Instagram, vêm investindo em métodos mais robustos de verificação para atender a regulamentações e proteger o público infantojuvenil.

Riscos comerciais e legais

Enquanto o uso de IA cresce, mais de 800 milhões de pessoas já utilizam o ChatGPT, segundo relatório do JPMorgan Chase, crescem também os debates sobre a responsabilidade das empresas em garantir a segurança de usuários jovens.

A Common Sense Media classifica o ChatGPT como de “risco moderado” para adolescentes, considerando que há mais salvaguardas do que em outros sistemas desenhados para parecer companheiros ou parceiros românticos. Ainda assim, o relatório do CCDH mostra que mesmo esses filtros podem ser insuficientes diante de usuários determinados.

Casos extremos já chegaram ao Judiciário. Uma mãe da Flórida processou a empresa Character.AI alegando que o chatbot teria desenvolvido uma relação emocional abusiva com seu filho de 14 anos, culminando em suicídio.

A OpenAI declarou, em resposta ao estudo, que está trabalhando em melhorias para identificar sinais de sofrimento emocional e ajustar o comportamento do chatbot. Porém, não comentou diretamente os resultados da pesquisa.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Carreira

Coursera: mulheres são apenas 32% dos matriculados em cursos de IA generativa

1 ano atrás

1
Inteligência Artificial

IFS anuncia aquisição da Copperleaf

2 anos atrás

2
Negócios

Qualcomm adquire Ventana Micro Systems e expande domínio em chips RISC-V

3 meses atrás

3
Cibersegurança

Ciberataques na nuvem cresceram 75% em 2023, diz CrowdStrike

2 anos atrás

4
Inteligência Artificial

Como evitar que a Meta utilize suas publicações para treino de inteligência artificial

2 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
ChatGPT

Nenhum autor cadastrado para este post.

Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

4 semanas atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

4 semanas atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

4 semanas atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

1 mês atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados