Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Inteligência Artificial
  4. Por que a IA alucina? OpenAI aponta falhas nos incentivos
alucinação
Estudo
openai

Por que a IA alucina? OpenAI aponta falhas nos incentivos

Publicado:
08/09/2025 às 17:18
Leitura
3 minutos
Por que a IA alucina? OpenAI aponta falhas nos incentivos

Um estudo recém-publicado pela OpenAI traz uma reflexão sobre um dos maiores desafios da inteligência artificial generativa: as alucinações. Definidas pela própria companhia como declarações falsas, mas convincentes, geradas por modelos de linguagem, essas falhas continuam a aparecer mesmo nas versões mais recentes de sistemas como o GPT-5 e o ChatGPT.

Segundo a OpenAI, e reportagem do TechCrunch, o problema não será completamente eliminado, mas pode ser reduzido. Para ilustrar, pesquisadores pediram a um chatbot conhecido informações sobre a tese de doutorado do cientista Adam Tauman Kalai. A resposta veio com três títulos diferentes, todos incorretos. Quando perguntado sobre a data de aniversário do pesquisador, a ferramenta novamente inventou três datas erradas.

De acordo com o artigo, as alucinações têm relação direta com o processo de pré-treinamento dos modelos. Nessa fase, as IAs são expostas a enormes volumes de texto e aprendem a prever a próxima palavra em uma sequência, sem distinção entre o que é verdadeiro ou falso.

Assim, padrões regulares, como ortografia ou uso de parênteses, são aprendidos de forma precisa. Já informações esparsas, como aniversários ou detalhes específicos, não seguem padrões claros e se tornam terreno fértil para respostas inventadas.

Leia também: Andrea Rivetti e a Arklok: 17 anos transformando tecnologia em solução

Incentivos que estimulam erros

Embora reconheça limitações no pré-treinamento, a OpenAI aponta que o problema maior está nos métodos de avaliação usados atualmente. O estudo compara esses testes a provas de múltipla escolha, em que o aluno pode arriscar respostas porque existe a chance de acertar por sorte, enquanto deixar em branco garante nota zero.

De forma semelhante, quando os modelos são avaliados apenas pela precisão — o percentual de respostas certas — eles acabam “aprendendo” a arriscar respostas mesmo sem certeza. “Se o principal critério de sucesso continuar premiando palpites sortudos, os modelos continuarão a adotar esse comportamento”, destacam os autores.

Possíveis soluções

Para reduzir o problema, os pesquisadores propõem que os sistemas de avaliação passem a punir mais severamente os erros dados com confiança do que as respostas incertas. Além disso, sugerem a adoção de “créditos parciais” para quando o modelo admite não ter certeza, em vez de penalizá-lo da mesma forma que um erro completo.

A lógica é inspirada em exames como o SAT, nos Estados Unidos, que já aplicaram pontuações negativas para desencorajar palpites aleatórios. Para a OpenAI, não basta criar testes paralelos que valorizem a incerteza. É necessário revisar amplamente os principais sistemas de avaliação, que hoje seguem centrados apenas em métricas de acerto.

O artigo conclui que, enquanto a régua de desempenho continuar valorizando os acertos ocasionais, os modelos terão pouco incentivo para “aprender” a reconhecer e comunicar suas próprias limitações.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Cibersegurança

Proxyware é a nova forma de lucrar dos ciberatacantes

5 anos atrás

1
Notícias

Exportação é alvo da Plug In

15 anos atrás

2
Notícias

Converta a experiência do cliente digital em receita para o seu negócio

6 anos atrás

3
Notícias

Importadora de vinhos investe R$ 250 mil obter mais controle

18 anos atrás

4
Notícias

Preview 2.1 Subwoofer Slim

16 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
alucinação
Estudo
openai

Nenhum autor cadastrado para este post.

Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

1 mês atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

1 mês atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

1 mês atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

1 mês atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados