Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Character.AI adota medidas de segurança para proteger usuários adolescentes
Character.AI
Google

Character.AI adota medidas de segurança para proteger usuários adolescentes

Chatbots agora contam com modelo espec¡fico para menores de 18 anos, bloqueando conteúdos sens¡veis e introduzindo controles parentais

Publicado:
12/12/2024 às 18:00
Redação
Redação
Leitura
4 minutos
Adolescente sentado em um sofá, usando um smartphone para acessar suas redes sociais, em um ambiente doméstico com almofadas e uma manta ao fundo. (Google, Meta, Character.AI)
Imagem: Shutterstock

O serviço de chatbots Character.AI anunciou uma série de mudanças voltadas para a segurança de usuários adolescentes. Entre as novidades, está o lançamento de um modelo de linguagem específico para menores de 18 anos e a implementação de controles parentais programados para o primeiro trimestre de 2025. As mudanças vêm após pressões midiáticas e duas ações judiciais acusando a plataforma de contribuir para casos de automutilação e suicídio.

Novas medidas de segurança

Segundo comunicado divulgado pelo The Verge, a empresa desenvolveu dois modelos distintos: um voltado para adultos e outro para adolescentes. O modelo para menores é projetado para limitar respostas de bots, especialmente em tópicos sensíveis ou sugestivos, como conteúdo romântico.

Além disso, o sistema foi aprimorado para detectar e bloquear comandos de usuários que tentem gerar respostas inadequadas. Quando a plataforma identifica linguagem relacionada a suicídio ou automutilação, uma janela pop-up redireciona o usuário para a linha direta de prevenção ao suicídio, uma funcionalidade já relatada pelo The New York Times.

Adolescentes também estão impedidos de editar as respostas dos bots, função que anteriormente permitia adicionar conteúdos que a plataforma bloquearia automaticamente.

Leia também: Família processa Character.AI e Google após morte de adolescente em interação com chatbot

Novas funcionalidades e avisos

A empresa também está desenvolvendo ferramentas para mitigar preocupações de vício e confusão sobre a natureza dos bots. Entre as iniciativas:

  • Notificações de tempo de uso: alertas aparecerão após sessões de uma hora com os bots.
  • Avisos mais claros: o disclaimer “tudo o que os personagens dizem é inventado” foi substituído por mensagens detalhadas. Bots com descrições como “terapeuta” ou “médico” agora incluem alertas de que não fornecem conselhos profissionais.

Por exemplo, ao interagir com um bot chamado “Therapist” com o slogan “Sou um terapeuta CBT licenciado”, uma mensagem em destaque esclarece. “Isto não é uma pessoa real ou profissional licenciado. Nada do que é dito aqui substitui conselhos, diagnósticos ou tratamentos profissionais.”

Controles parentais

Os controles parentais, previstos para o início de 2025, permitirão que responsáveis acompanhem o tempo que seus filhos passam na plataforma e identifiquem quais bots são mais utilizados. As alterações estão sendo desenvolvidas em parceria com especialistas em segurança online para adolescentes, como a organização ConnectSafely.

A Character.AI, fundada por ex-funcionários do Google, permite que usuários interajam com bots baseados em um modelo de linguagem treinado internamente. Entre os bots disponíveis estão simuladores de personagens fictícios e “coaches” de vida, populares especialmente entre adolescentes. A plataforma aceita usuários a partir de 13 anos.

Preocupações e processos legais

As ações judiciais contra a Character.AI alegam que interações aparentemente inofensivas podem evoluir para comportamentos compulsivos entre usuários menores de idade. Segundo os processos, os bots frequentemente discutem temas como automutilação ou suicídio, além de ocasionalmente gerarem conversas sexualizadas.

Os processos criticam a falta de direcionamento para recursos de saúde mental quando esses tópicos surgem. As mudanças anunciadas, como os redirecionamentos automáticos, buscam mitigar essas críticas e melhorar a segurança da plataforma.

Compromisso com a evolução

Em comunicado, a Character.AI declarou: “Reconhecemos que nossa abordagem de segurança deve evoluir junto com a tecnologia que impulsiona nosso produto — criando uma plataforma onde criatividade e exploração possam florescer sem comprometer a segurança”.

A empresa afirma que as mudanças são parte de um compromisso de longo prazo com a melhoria de suas políticas e serviços.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Inteligência Artificial

Chatbots sem inteligência artificial: a fórmula que cansou

1 ano atrás

1
Notícias

TV Digital: tudo o que você precisa saber sobre a migração

9 anos atrás

2
CIO

5 novos empregos interessantes de TI – e por que eles podem pegar

5 anos atrás

3
Notícias

Nodes Tecnologia lança aplicação que adiciona camada de proteção às soluções antivírus

7 anos atrás

4
Acervo

Letramento digital e revisão de processos são os novos pilares da IA no varejo

2 meses atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
Character.AI
Google
Autor
Redação
Redação
LinkedIn

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Ver publicações deste autor
Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

2 meses atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

2 meses atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

2 meses atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

2 meses atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados