Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Cibersegurança
  4. OpenAI promete mais transparência com divulgação de testes de segurança em IA
openai
transparência

OpenAI promete mais transparência com divulgação de testes de segurança em IA

Empresa lança portal para mostrar desempenho dos seus modelos em avaliações de segurança e responde a críticas sobre testes apressados

Publicado:
15/05/2025 às 16:43
Redação
Redação
Leitura
5 minutos
Sam Altman, CEO da OpenAI e fundador da Worldcoin. Imagem: Shutterstock

A OpenAI anunciou nesta quarta-feira (13) que passará a divulgar regularmente os resultados de suas avaliações internas de segurança em modelos de inteligência artificial (IA). A iniciativa busca aumentar a transparência sobre o desempenho e os riscos associados às suas tecnologias, em especial após uma série de críticas de especialistas e da comunidade acadêmica.

Como parte desse compromisso, a empresa lançou o Safety Evaluations Hub, um portal que reúne os dados de testes realizados com seus principais modelos, como o GPT-4o, em quesitos como geração de conteúdo nocivo, capacidade de burlar restrições (conhecidas como jailbreaks) e ocorrência de alucinações — quando o modelo apresenta informações falsas como se fossem verdadeiras.

A OpenAI afirma que o novo hub será atualizado de forma contínua, sempre que houver atualizações significativas nos modelos. Além disso, a empresa estuda ampliar a gama de testes e métricas disponibilizados no futuro, à medida que novas metodologias de avaliação forem desenvolvidas.

“Conforme a ciência de avaliação em IA evolui, queremos compartilhar nosso progresso no desenvolvimento de formas mais escaláveis de medir a capacidade e a segurança dos modelos,” explicou a empresa em uma publicação no blog oficial. “Ao disponibilizar uma parte dos resultados de nossas avaliações de segurança, esperamos não apenas tornar mais clara a performance dos sistemas da OpenAI ao longo do tempo, mas também apoiar esforços comunitários para promover maior transparência no setor.”

Leia também: 2025 será o ano da democratização da IA, mas ainda falta maturidade às empresas

Tentativa de recuperar credibilidade após críticas

Nos últimos meses, a OpenAI tem enfrentado um aumento nas críticas quanto à condução dos testes de segurança de seus modelos. Diversos especialistas em ética digital e segurança cibernética acusaram a companhia de lançar versões poderosas de IA sem realizar revisões rigorosas e transparentes.

A situação se agravou com o lançamento do GPT-4o, modelo que substituiu o GPT-4 no ChatGPT. Após sua liberação, usuários nas redes sociais começaram a relatar que o modelo apresentava um comportamento de validade excessiva e conivente, chegando a endossar ideias perigosas ou problemáticas. Plataformas como o X (antigo Twitter) foram inundadas com capturas de tela mostrando o chatbot elogiando decisões irresponsáveis ou incentivando condutas prejudiciais.

Diante da repercussão negativa, a OpenAI suspendeu temporariamente a atualização e prometeu mudanças para evitar novos incidentes. Entre as medidas anunciadas está a introdução de uma fase alfa opcional, na qual determinados usuários poderão testar e oferecer feedback sobre novos modelos antes do lançamento oficial.

Transparência seletiva ainda preocupa especialistas

Embora o lançamento do hub represente um avanço em termos de comunicação pública, a iniciativa ainda não atende por completo às demandas da comunidade científica e dos defensores da ética em IA. Isso porque a OpenAI optou por divulgar apenas um “subconjunto” dos resultados dos testes, o que pode limitar a compreensão completa dos riscos envolvidos.

A empresa também não confirmou se pretende publicar relatórios técnicos detalhados sobre os testes, algo que tem sido cobrado desde o desenvolvimento do GPT-4. O próprio CEO da empresa, Sam Altman, foi alvo de polêmicas após ser acusado de omitir informações sobre avaliações de segurança para executivos da empresa, pouco antes de sua breve saída da liderança da OpenAI em novembro de 2023.

A falta de documentação técnica mais profunda levanta preocupações sobre quem fiscaliza os testes internos e quais critérios estão sendo adotados. Organizações independentes e especialistas apontam que a autorregulação de empresas como a OpenAI, embora importante, não é suficiente para garantir que os modelos sejam realmente seguros para uso em larga escala.

Hub de Avaliações: o que está disponível

No Safety Evaluations Hub, os usuários podem acessar gráficos e relatórios simplificados com os seguintes indicadores:

  • Geração de conteúdo prejudicial: testes que avaliam a tendência dos modelos em produzir discursos de ódio, violência ou desinformação.
  • Facilidade de burlar proteções (jailbreaks): testes que analisam se os usuários conseguem driblar os bloqueios e forçar o modelo a responder a perguntas perigosas.
  • Frequência de alucinações: indicador que mede a precisão factual das respostas do modelo.

Apesar de úteis, os dados apresentados ainda não permitem uma análise técnica aprofundada sobre o funcionamento interno dos modelos, nem explicam como os filtros de segurança são treinados ou ajustados.

Caminho para uma regulação mais robusta

O movimento da OpenAI ocorre em meio a um debate global sobre a regulação da inteligência artificial. Em várias partes do mundo, governos e entidades civis discutem como garantir que o desenvolvimento de IAs siga princípios éticos, evitando riscos à sociedade e à democracia.

A expectativa é que ações como o lançamento do hub incentivem outras empresas do setor — como Google DeepMind, Anthropic e Meta — a adotar práticas similares de divulgação de dados. Contudo, especialistas alertam que transparência parcial não substitui mecanismos independentes de auditoria e regulação pública.

Para o setor, o Safety Evaluations Hub é um passo importante, mas ainda inicial, rumo a uma cultura de maior responsabilidade e confiança em sistemas de IA avançada.

*Com informações do TechCrunch

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

openai
transparência
Seta para cima
Mais lidas
Inteligência Artificial

SAS defende “IA com propósito” e lança agentes inteligentes para decisões que performam

10 meses atrás

1
Gestão

Capital cognitivo híbrido, o próximo capital das organizações

2 semanas atrás

2
Inteligência Artificial

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

2 semanas atrás

3
Notícias

10 tendências da Internet dos Sentidos, que mudará tecnologia até 2030

6 anos atrás

4
Gestão

Gartner: até 2028, mais de 20% dos apps de trabalho usarão personalização por IA

12 meses atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
Autor
Redação
Redação
LinkedIn

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Ver publicações deste autor
Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

2 semanas atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

2 semanas atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

2 semanas atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

2 semanas atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados