Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Estudos
  4. Modelos da OpenAI “decoraram” conteúdos protegidos por direitos autorais, aponta estudo
direitos autorais
inteligência artificial
modelos
openai

Modelos da OpenAI “decoraram” conteúdos protegidos por direitos autorais, aponta estudo

Ação do GPT-4, da OpenAI, reacende o debate sobre transparência e uso justo no treinamento de IAs

Publicado:
07/04/2025 às 17:50
Redação
Redação
Leitura
3 minutos
Ecrã de um smartphone com a interface do ChatGPT aberta, mostrando exemplos, capacidades e limitações da ferramenta, com um teclado de computador visível ao fundo, openai
Imagem: Shutterstock

Uma nova pesquisa reforça as suspeitas de que a OpenAI teria utilizado materiais protegidos por direitos autorais, como livros e reportagens, para treinar seus modelos de inteligência artificial (IA), sem a devida autorização dos autores.

A empresa está no centro de uma série de processos movidos por escritores, programadores e outros criadores, que acusam a companhia de ter se apropriado de suas obras para alimentar modelos como o GPT-4.

A OpenAI, por sua vez, se defende com o argumento do “uso justo” (fair use), embora especialistas e autores contestem essa justificativa, lembrando que a legislação de direitos autorais dos EUA não prevê exceções específicas para dados usados em treinamentos de IA.

O estudo, desenvolvido por pesquisadores das universidades de Washington, Copenhague e Stanford, propõe um novo método para detectar casos de memorização de dados por modelos de linguagem, inclusive aqueles acessados apenas via API, como os da OpenAI.

Reprodução idêntica

Embora os modelos de IA sejam, na essência, mecanismos de previsão capazes de gerar textos, imagens e outros conteúdos com base em padrões aprendidos, parte do material de saída pode, sim, reproduzir trechos idênticos ao que foi visto durante o treinamento.

Já se observou, por exemplo, modelos de imagem repetindo cenas de filmes usados nos dados de treinamento e modelos de texto recriando quase literalmente reportagens jornalísticas.

Leia mais: NR-1, IA e estratégia: o que uma norma do Ministério do Trabalho tem a ver com inteligência artificial

A nova técnica se baseia na ideia de “palavras de alta surpresa”, termos pouco prováveis num determinado contexto. Ao mascarar essas palavras em trechos de livros de ficção ou de reportagens do New York Times e pedir para que o modelo preenchesse as lacunas, os pesquisadores conseguiram medir se a IA estava simplesmente prevendo com base em padrões ou se estava reproduzindo o texto de memória. Quando a IA acerta essas palavras incomuns com frequência, é sinal de que o conteúdo pode ter sido memorizado.

Os testes foram feitos com o GPT-3.5 e o GPT-4, e os resultados indicam que o modelo mais recente apresenta sinais claros de ter memorizado partes de livros populares — incluindo obras presentes no conjunto de dados BookMIA, que reúne trechos de e-books protegidos por copyright. Também foram encontrados indícios de memorização de reportagens do New York Times, embora com menor intensidade.

Para Abhilasha Ravichander, doutoranda na Universidade de Washington e coautora do estudo, os achados levantam um alerta importante sobre o tipo de conteúdo que pode estar sendo usado no treinamento de modelos de IA.

“Se queremos confiar nessas tecnologias, precisamos de modelos auditáveis, transparentes, que possam ser examinados com rigor científico”, disse Ravichander ao TechCrunch. “Nosso estudo é uma tentativa de oferecer uma ferramenta para isso, mas é urgente que todo o ecossistema avance em transparência sobre os dados.”

A OpenAI, por sua vez, tem pressionado por uma flexibilização das regras sobre o uso de obras protegidas no treinamento de IA. A empresa já firmou alguns acordos de licenciamento e permite que criadores solicitem a exclusão de seus conteúdos dos datasets, mas também atua junto a governos para tentar consolidar legalmente o conceito de “uso justo” nesse contexto.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

*informações retiradas do Tech Crunch

Seta para cima
Mais lidas
Carreira

Coursera: mulheres são apenas 32% dos matriculados em cursos de IA generativa

1 ano atrás

1
Inteligência Artificial

IFS anuncia aquisição da Copperleaf

2 anos atrás

2
Negócios

Qualcomm adquire Ventana Micro Systems e expande domínio em chips RISC-V

3 meses atrás

3
Cibersegurança

Ciberataques na nuvem cresceram 75% em 2023, diz CrowdStrike

2 anos atrás

4
Inteligência Artificial

Como evitar que a Meta utilize suas publicações para treino de inteligência artificial

2 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
direitos autorais
inteligência artificial
modelos
openai
Autor
Redação
Redação
LinkedIn

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Ver publicações deste autor
Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

4 semanas atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

4 semanas atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

4 semanas atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

1 mês atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados