Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Inteligência Artificial
  4. Defensores da segurança da IA aconselham fundadores a desacelerar
IA responsável

Defensores da segurança da IA aconselham fundadores a desacelerar

Especialistas alertam que a pressa no desenvolvimento da IA pode gerar sérios problemas éticos e sociais a longo prazo

Publicado:
06/11/2024 às 14:30
Redação
Redação
Leitura
4 minutos
Homem de óculos olhando de frente para uma representação digital de um rosto humano feito de circuitos e códigos binários, simbolizando a interação entre inteligência artificial e ser humano. O fundo escuro realça as linhas de circuito e os números 0 e 1, sugerindo temas de tecnologia avançada, aprendizado de máquina e futurismo (IA, inteligência artificial, humanos, globant, robótica)
Imagem: Shutterstock

“Agir com cautela e promover uma análise crítica” pode não ter o mesmo impacto que “mova-se rápido e quebre as coisas”, mas três defensores da segurança da inteligência artificial (IA) deixaram claro aos fundadores de startups que a pressa pode acarretar problemas éticos no longo prazo.

“Estamos em um ponto de inflexão, em que muitos recursos estão sendo alocados para este espaço”, disse Sarah Myers West, codiretora do AI Now Institute, durante sua apresentação no TechCrunch Disrupt 2024.

“Estou realmente preocupada que, neste momento, exista uma pressa imensa para lançar produtos no mundo, sem considerar a questão legado: que tipo de mundo realmente queremos viver e de que forma a tecnologia que está sendo criada serve a esse mundo ou o prejudica ativamente.”

Leia também: ANPD investiga TikTok por possível violação de dados de crianças e adolescentes 

A conversa surge em um momento em que a questão da segurança da IA é mais urgente do que nunca. Em outubro, a família de uma criança processou a empresa de chatbot Character.AI, alegando que o serviço teve influência na sua morte. “Essa história demonstra as profundas implicações do rápido lançamento das tecnologias baseadas em IA”, afirmou Sarah. “Alguns desses problemas são de longa data e quase inextricáveis, como a moderação de conteúdo e o abuso on-line.”

No entanto, além dessas questões que envolvem a vida ou a morte, os riscos da IA se estendem a outras áreas, como desinformação e violação de direitos autorais.

“Estamos construindo algo que possui um poder imenso e que pode impactar profundamente a vida das pessoas”, comentou Jingna Zhang, fundadora da plataforma social voltada para artistas, Cara. “Quando falamos sobre algo como o Character.AI, que se envolve emocionalmente com alguém, faz sentido que devêssemos ter limites em como o produto é desenvolvido.”

A plataforma de Jingna ganhou destaque após a Meta declarar que poderia usar publicações públicas de qualquer usuário para treinar sua IA. Para artistas como Jingna, essa política é um golpe duro. Eles precisam publicar seus trabalhos on-line para conquistar seguidores e garantir possíveis clientes, mas, ao fazer isso, suas obras podem ser utilizadas para moldar modelos de IA que um dia poderiam ameaçar seu emprego.

“O direito autoral é o que nos protege e nos permite ganhar a vida”, explicou. Se uma obra de arte está disponível on-line, isso não significa que é livre para uso — publicações digitais, por exemplo, precisam licenciar imagens de fotógrafos para utilizá-las. “Quando a IA generativa começou a se tornar mais comum, percebemos que ela não se encaixa no que estamos acostumados, algo que já está estabelecido na lei. E, se quiserem usar nosso trabalho, deveriam licenciar isso.”

E as deepfakes?

Aleksandra Pedraszewska, líder de segurança da ElevenLabs, empresa de clonagem de voz que já vale mais de US$ 1 bilhão, também destacou a necessidade de vigilância. É sua responsabilidade garantir que a tecnologia sofisticada da empresa não seja usada para deepfakes não consensuais, entre outras questões.

“Acredito que a análise crítica dos modelos, a compreensão de comportamentos indesejáveis e as consequências não intencionais de qualquer novo lançamento que uma empresa de IA generativa faça estão se tornando uma prioridade”, afirmou. “A ElevenLabs possui hoje 33 milhões de usuários. Esta é uma comunidade massiva que é afetada por qualquer mudança que fizermos em nosso produto.”

Aleksandra também sugeriu que uma maneira de profissionais em sua posição serem mais proativos na manutenção da segurança das plataformas é estabelecer um relacionamento mais próximo com a comunidade de usuários.

“Não podemos operar apenas entre dois extremos: um sendo totalmente anti-IA e anti-IA generativa, e o outro tentando convencer a favor da ausência total de regulamentação. Acredito que precisamos encontrar um meio-termo quando se trata de regulamentação”, finalizou.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Notícias

Via Varejo implementa chatbot com recursos do IBM Watson

9 anos atrás

1
CIO

Billing em um mundo Multicloud: grande desafio para 2019

7 anos atrás

2
Notícias

A disponibilidade no papel de criar uma nova experiência do cliente

8 anos atrás

3
Notícias

WannaCry: o que sabemos até agora

9 anos atrás

4
Notícias

PicPay simplifica compra no e-commerce

7 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
IA responsável
Autor
Redação
Redação
LinkedIn

A redação contempla textos de caráter informativo produzidos pela equipe de jornalistas do IT Forum.

Ver publicações deste autor
Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

1 mês atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

1 mês atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

1 mês atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

2 meses atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados