🛠️ ESPAÇO DE ANÚNCIO (MODO DEV)
Slot: /23408374/cio-carreira
Tamanhos: [300,250], [750,450], [970,90]...
dados pessoais
Netskope
saúde
violações

Saúde: 81% de violações de segurança envolvem informações de pacientes

O uso de ferramentas públicas de inteligência artificial generativa por profissionais da saúde está aumentando o número de tentativas de enviar informações confidenciais para locais não aprovados pela TI, tanto na web quanto na nuvem. Tanto ChatGPT como o Gemini, do Google, dois modelos mais usados na área, estão frequentemente envolvidos nessa classe de violações […]

Publicado: 06/12/2025 às 23:37
Leitura
2 minutos
Pessoa vestida com jaleco branco e estetoscópio, presumivelmente um profissional de saúde, utiliza um laptop. Na tela, há um símbolo de “AI” (inteligência artificial) com circuitos ao redor. Projetados no ar à frente do computador, aparecem hologramas de exames médicos digitais com imagens do corpo humano, incluindo sistemas muscular e esquelético, acompanhados de gráficos e indicadores. A cena transmite o uso de inteligência artificial na medicina, com foco em tecnologia avançada para diagnóstico ou análise clínica. (saúde)
Construção civil — Foto: Reprodução

O uso de ferramentas públicas de inteligência artificial generativa por profissionais da saúde está aumentando o número de tentativas de enviar informações confidenciais para locais não aprovados pela TI, tanto na web quanto na nuvem. Tanto ChatGPT como o Gemini, do Google, dois modelos mais usados na área, estão frequentemente envolvidos nessa classe de violações de políticas de dados, alerta a Netskope em novo relatório.

A questão é particularmente sensível porque dados de pacientes são muitas vezes regulados, seja por governos ou por entidades e associações do setor. “As aplicações GenAI oferecem soluções inovadoras, mas também revelam novos vetores para potenciais violações de dados, especialmente em ambientes de alta pressão e alto risco, como o da saúde”, pondera em comunicado Gianpietro Cutolo, pesquisador de ameaças à nuvem no Netskope Threat Labs.

Leia também: Número de empresas de IA crescem 857% em 2 anos, aponta pesquisa

Segundo ele, as organizações de saúde devem “equilibrar os benefícios” da IA com proteções de segurança e de dados “para mitigar esses riscos”.

O levantamento indica que 81% das violações de política de dados em organizações de saúde nos últimos doze meses eram relacionadas a dados regulamentados, ou seja, protegidos por regulamentações e leis locais, nacionais ou internacionais, incluindo informações sensíveis médicas e clínicas. Senhas e chaves, código-fonte ou propriedade intelectual também foram afetados (19% no total).

Grande número dessas violações ocorreu por envio de dados sensíveis para contas pessoais do Microsoft OneDrive ou do Google Drive.

O risco é ainda maior quando se considera que a GenAI e suas aplicações são utilizadas em 88% das organizações de saúde. O estudo alerta que 44% das violações envolvem dados regulamentados, 29% incluem código-fonte, 25% propriedade intelectual e 2% senhas e chaves.

O relatório da Netskope Threat Labs pode ser lido nesse link.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Todas
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Inserir e-mail
Notícias relacionadas