Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Computerworld Brasil
  4. Estudo: GitHub Copilot gera sugestões de código errôneas ou vulneráveis em 40% do tempo
GitHub
GitHub Copilot
inteligência artificial
Microsoft

Estudo: GitHub Copilot gera sugestões de código errôneas ou vulneráveis em 40% do tempo

Publicado:
26/08/2021 às 18:05
Leitura
3 minutos
Código HTML programação
Adobe Stock

Um artigo publicado por uma equipe de pesquisa da Universidade de Nova Iorque (NYU) colocou em cheque a segurança do GitHub Copilot, ferramenta de inteligência artificial desenvolvida pelo GitHub e OpenAI para auxiliar os usuários do Visual Studio Code por meio do preenchimento automático do código.

Segundo os pesquisadores, em cerca de 40% das vezes, o código gerado pelo assistente de programação traz erros ou é potencialmente vulnerável a ataques, de acordo com informações do The Register.

O artigo An Empirical Cybersecurity Evaluation of GitHub Copilot’s Code Contributions, apontou para a “vasta quantidade de código não testado que o Copilot processou”, levantando questionamentos sobre a segurança das contribuições de código da ferramenta.

“Neste trabalho, investigamos sistematicamente a prevalência e as condições que podem fazer com que o GitHub Copilot recomende um código inseguro. Para realizar esta análise, solicitamos ao Copilot a geração de código em cenários relevantes para CWEs de alto risco (por exemplo aqueles da lista “Top 25” do MITRE). Exploramos o desempenho do Copilot em três eixos distintos de geração de código – examinando como ele funciona, dada a diversidade de fraquezas, diversidade de prompts e diversidade de domínios”, explicam os pesquisadores no artigo.

No total, foram produzidos 89 cenários diferentes para o Copilot concluir, produzindo 1.692 programas. Destes, os pesquisadores descobriram que, aproximadamente, 40% eram vulneráveis.

O Copilot está agora disponível em testes beta privados como uma extensão do Visual Studio Code da Microsoft. Ele permite que os desenvolvedores descrevam a funcionalidade em uma linha de comentário e, em seguida, gerem o código que preenche a descriçãor. A ferramenta também é capaz de prever o que o desenvolvedor está prestes a escrever a partir dos nomes das variáveis e funções, oferecendo insights.

Basicamente, ao invés de terminar uma linha parcialmente digitada com base em um conjunto estreito de possibilidades, o Copilot tenta conjurar blocos de código que funcionam conforme descrito a partir de um modelo de IA relacionado ao GPT-3 da OpenAI e treinado no código-fonte retirado dos milhões de repositórios públicos do GitHub, diz o The Register.

Os pesquisadores observaram não apenas que bugs herdados de dados de treinamento devem ser considerados, mas também que a idade do modelo merece atenção, já que as práticas de codificação mudam com o tempo.

Apesar de todos os pontos levantados no artigo científico, os pesquisadores parecem convencidos que, ainda assim, há valor até mesmo em sistemas automatizados errôneos.

“Não há dúvida de que as ferramentas de ‘preenchimento automático’ de próxima geração, como o GitHub Copilot, aumentarão a produtividade dos desenvolvedores de software”, concluem eles. “No entanto, embora o Copilot possa gerar rapidamente quantidades prodigiosas de código, nossas conclusões revelam que os desenvolvedores devem permanecer vigilantes (‘acordados’) ao usar o Copilot como um copiloto”.

(Com informações de The Register)

Seta para cima
Mais lidas
Notícias

SEIAS moderniza gestão com Sonda Ativas

8 anos atrás

1
Carreira

Coursera: mulheres são apenas 32% dos matriculados em cursos de IA generativa

1 ano atrás

2
Negócios

Qualcomm adquire Ventana Micro Systems e expande domínio em chips RISC-V

3 meses atrás

3
Gestão

Embratel é integrada ao grupo Claro empresas e anuncia reestruturação

12 meses atrás

4
Notícias

Gestão de riscos atrai profissionais que buscam qualificação

9 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
GitHub
GitHub Copilot
inteligência artificial
Microsoft

Nenhum autor cadastrado para este post.

Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

1 mês atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

1 mês atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

1 mês atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

1 mês atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados