Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Inteligência Artificial
  4. Sua IA está escrevendo código inseguro? O que os testes com LLMs nos revelam
código
LLM

Sua IA está escrevendo código inseguro? O que os testes com LLMs nos revelam

Segundo uma análise recente da Backslash Security, os principais modelos de IA do mercado ainda estão entregando código inseguro por padrão

Publicado:
03/06/2025 às 16:41
Tiago Neves
Tiago Neves
Leitura
3 minutos
llms, ia, dados, ouro, código. Imagem: Shutterstock
Imagem: Shutterstock

Por Tiago Neves Furtado, sócio do Opice Blum Advogados

A inteligência artificial generativa está transformando a maneira como desenvolvemos software. Pedir para um modelo gerar um trecho de código tornou-se tão comum quanto consultar um colega no Slack. Mas, segundo uma análise recente da Backslash Security, os principais modelos de IA do mercado ainda estão entregando código inseguro por padrão, especialmente quando os prompts são simples ou genéricos.

O estudo avaliou sete versões atuais de LLMs (Large Language Models), incluindo o GPT-4o (OpenAI), o Claude 3.7-Sonnet (Anthropic) e o Gemini (Google). A metodologia foi clara: testar o que esses modelos fazem quando recebem comandos como “escreva um código que faça X”. O resultado? Todos geraram código vulnerável a pelo menos quatro das dez falhas mais comuns do CWE (Common Weakness Enumeration).

Leia também: Na indústria do futuro, o Brasil quer protagonismo: Vivix e Siemens destacam soluções locais em Realize Live 2025

Entre as falhas mais frequentes estavam:

· Command injection

· Cross-site scripting (XSS) — tanto no frontend quanto no backend

· Insecure file upload

· Path traversal

Mesmo quando os prompts pediam explicitamente por segurança — como “make sure you are writing secure code” — a maioria dos modelos ainda gerava saídas com vulnerabilidades. No caso do GPT-4o, apenas 20% dos códigos gerados com esse tipo de alerta genérico estavam seguros. O desempenho só melhora quando se pede algo mais específico como “follow OWASP secure coding best practices”, mesmo assim, 35% dos códigos ainda apresentaram falhas.

A exceção foi o modelo Claude 3.7-Sonnet, que chegou a 100% de sucesso com prompts genéricos de segurança, mostrando que o comportamento varia bastante entre modelos, e também depende muito de como se escreve o prompt. Esses dados reforçam um ponto já levantado pelo Cybersecurity Readiness Index 2025, da Cisco: as empresas ainda não têm visibilidade sobre como a IA está sendo usada internamente. Cerca de 60% não conseguem monitorar os prompts feitos por funcionários a ferramentas de GenAI, o que significa que há uma grande chance de código inseguro estar sendo produzido e implementado sem qualquer revisão técnica.

O uso informal ou não autorizado de IA no ambiente corporativo é conhecido como shadow AI. E ele cresce rápido. Segundo a Cisco, mais da metade das empresas não consegue sequer identificar se ferramentas não aprovadas estão em uso. É um campo cego dentro da própria organização.

A boa notícia? Existe um caminho. A análise da Backslash mostra que prompts bem estruturados, com foco em segurança, ajudam — e muito — a melhorar a qualidade do código gerado. Mas isso não pode ficar apenas nas mãos do desenvolvedor. Como o próprio estudo destaca: “Developers are still learning prompt engineering themselves and are not expected to be security experts”. Ou seja, é papel dos times de segurança criarem regras, templates e ferramentas para garantir que o código gerado por IA seja seguro por design.

A IA não é o problema. O risco está na confiança cega e na falta de controle. Se bem usada, ela pode ser uma aliada poderosa para reforçar práticas que há anos tentamos incorporar na rotina de desenvolvimento. Mas, para isso, precisamos de governança, visibilidade e engenharia de prompts com responsabilidade.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Notícias

Nodes Tecnologia lança aplicação que adiciona camada de proteção às soluções antivírus

7 anos atrás

1
CIO

5 novos empregos interessantes de TI – e por que eles podem pegar

5 anos atrás

2
Notícias

Contact center do futuro: 5 investimentos essenciais

6 anos atrás

3
Notícias

Formação de equipes voltadas para valor e inovação é solução para escassez de talentos em TI

13 anos atrás

4
CIO

Como trabalhar (e coinovar) com startups? 5 etapas para garantir o sucesso

6 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
código
LLM
Autor
Tiago Neves
Tiago Neves

Tiago Neves Furtado é sócio do Opice Blum Advogados.

Ver publicações deste autor
Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

2 meses atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

2 meses atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

2 meses atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

2 meses atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados