Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Inovação
  4. IA e proteção de dados: ‘Estamos bebendo dessa água sem saber se tem veneno’
dados
Dia Internacional da Proteção de Dados
IA
inteligência artificial

IA e proteção de dados: ‘Estamos bebendo dessa água sem saber se tem veneno’

Publicado:
27/01/2023 às 13:30
Leitura
11 minutos
IA, inteligência artificial, Dora Kaufmann, Rafael Cavalcanti, Fabio Mucci e Gisele Truzzi
Dora Kaufmann, Rafael Cavalcanti, Fabio Mucci e Gisele Truzzi. Fotos: Divulgação

Se há poucos anos pensar que uma máquina poderia aprender sozinha parecia roteiro de filme, a Inteligência Artificial se tornou realidade sem que ao menos as pessoas se deem conta. Os bancos, por exemplo, usam a tecnologia para entender se um correntista é elegível a certo crédito e qual o valor desse montante.

E, se por um lado a IA tornou processos mais ágeis e menos burocráticos, há também uma preocupação com a privacidade e transparência – além de uma discussão ainda sem conclusões sobre os vieses discriminatórios da plataforma. Para celebrar o Dia Internacional da Proteção de Dados, comemorado amanhã (28), o IT Forum conversou com especialistas sobre as principais implicações de sistemas de IA e a privacidade dos usuários.

“Nesse sentido, temos um problema pois o artigo 20 da Lei Geral de Proteção de Dados (LGPD) diz que eu posso pedir explicação para o sistema baseado em dados. Por exemplo: eu estou participando de um processo de seleção e não sou escolhido. Eu tenho direito de pedir explicação porque que eu não fui selecionado”, pondera Dora Kaufmann, professora da PUC-SP e pesquisadora dos impactos éticos/sociais da IA.

Segundo ela, a explicação pode passar por vários elementos. “O deep learning tem uma natureza, chamada caixa preta, em que os algoritmos fazem a correlação na base de dados com uma complexidade que a cognição humana não consegue entender. Eu não consigo explicar plenamente como o sistema chegou àquela conclusão. Eu posso falar as variantes iniciais, posso fazer algumas explicações, mas não tenho como ter transparência total”, pondera.

Rafael Cavalcanti, superintendente executivo de inteligência de dados do Bradesco, explica que o objetivo e o dever de quem constrói um modelo é tratar e controlar questões técnicas, passando pelo entendimento de eliminação de vieses. Segundo ele, há dois elementos fundamentais nisso: o técnico (entender o que é possível tecnicamente para prever esses vieses conscientes e inconscientes para ter melhores decisões); e o entendimento do fenômeno que será modelado.

Leia mais: LGPD e reconhecimento facial: o lado mais polêmico da proteção de dados

“A consciência do time que faz o modelo de conhecer a técnica e o processo é essencial, visto que existem questões sociais, de gênero e de diversidade que não podem influenciar de maneira equivocada. Você pode não colocar gênero na avaliação, mas existem outras avaliações relacionadas que são perigosas. Por exemplo, se eu tenho um modelo que considera um percentual de gastos em um determinado tipo de loja e essa loja tende a ser consumida por pessoas de certo gênero, ainda que o gênero não esteja enviesado, essa variável está correlacionada”, exemplifica Rafael.

Privacidade e proteção

As questões éticas, além da preocupação com a privacidade e proteção dos dados, podem trazer problemas e riscos para qualquer negócio, principalmente para a reputação da empresa. Ainda assim, Fabio Mucci, líder principal de vendas de dados, automação e sustentabilidade da IBM Brasil, cita exemplos de como a IA pode ser positiva, como no auxílio da pesquisa de vacina nos últimos dois anos e os serviços de digitalização para o cidadão brasileiro e nas consultas de bases do governo para saber quem poderia receber benefícios na pandemia.

O especialista explica que, dentro da IBM, há um projeto de pilares de confiança da IA. São perguntas para qualquer desenvolvimento e direcionamento feitos: É justo ou vai tomar decisões discriminatórias e com viés? É possível entender por que se tomou essa decisão ou é uma caixa preta? É robusto? É transparente? A IA prioriza privacidade e direito de uso dos dados?

“Um dos maiores problemas que eu vejo hoje falando das empresas que usam IA: simetria de conhecimento entre o usuário gestor e o desenvolvedor de tecnologia. Pela minha interação com o mercado, o usuário gestor que toma a decisão (seja financeira, RH, etc), geralmente não tem conhecimento sobre como essa técnica funciona, então fica difícil tomar uma decisão sobre o uso dessa técnica e levar em conta o que é necessário. Essa é a mesma simetria de conhecimento que acontece com os legisladores”, provoca Dora.

Outro ponto de atenção é na contratação de fornecedores da tecnologia. Como a empresa contratante não sabe como o sistema funciona tecnicamente, muitas vezes não é capaz de identificar o risco que existe pois nem sempre há transparência no sistema.

“Um prisma importante é entender que quando falamos de IA open, ela está aberta para o mercado e busca informação com viés ou sem viés. Quando leva para a empresa, você está falando dos seus dados, dos seus clientes, dos seus produtos. Por isso, a preocupação com a ética e com a proteção de dados se torna ainda mais relevante”, adverte Fabio.

Ter um elemento de governança e um processo interno de times que provoquem e revisem o que é feito também é muito importante, diz o superintendente do Bradesco. Quando o modelo sai, ele passa por quem fez, quem revisa e isso dá mais conforto para incorporar o sistema.

“A atividade de dados por sua essência é de diversidade. Porque se você for modelar qualquer fenômeno e todo mundo for igual, você não está modelando nada. É preciso ter diversidade de background técnico – temos economistas, físicos, matemáticos, engenheiros. E um background de diversidade entre as pessoas para criar um olhar crítico como eixo fundamental, porque nos ajuda a entender o processo”, comenta.

Governança da inteligência

Dora concorda ao falar sobre a necessidade de desenvolver uma governança de IA. Para ela, é preciso ter uma comissão de ética ou expandi-la e trazer membros que não entendam apenas sobre a tecnologia, mas sobre os impactos éticos para desenvolver modelos do que seriam as diretrizes e melhores práticas de governança.

Entre as perguntas a serem respondidas na governança, ela cita: Eu vou desenvolver ou usar um sistema? O que eu tenho que verificar? Quem eu preciso envolver? O que tenho que checar? Como eu garanto que vou mitigar os riscos? Quais implicações? Como eu incorporo as questões éticas dentro da ética que já tenho na empresa?

“A responsabilidade de construir sistemas éticos é de toda a sociedade. As pessoas têm que se familiarizar com o funcionamento e a lógica desse tecnologia, principalmente os usuários gestores. Para as empresas é mandatório que criem essa governança de IA e a sua própria reputação. E é obrigação do governo proteger a sociedade e isso tudo funciona se tiver um arcabouço. Qual será, quais são as agências que vão supervisionar é outra discussão. Mas tem que ter um arcabouço regulatório da IA para os desenvolvedores e para os usuários”, finaliza Dora.

Regulações em curso

Para Gisele Truzzi, advogada especialista em Direito Digital e CEO da Truzzi Advogados, ter a Lei Geral de Proteção de Dados (LGPD) consolidada antes de ter uma regulamentação de Inteligência Artificial é essencial, pois ao falar de IA, estamos discutindo o tratamento de dados pessoais e dados pessoais sensíveis.

“A título de informação, os dados pessoais são as informações que possibilitam identificar um indivíduo, como nome completo, RG, CPF, telefone ou e-mail. Os dados sensíveis são aqueles que, além de nos identificar, traz mais informações, a ponto de englobar dados relacionados à orientação sexual; posicionamento político, filosófico e religioso; informações de saúde; dados financeiros; perfil de compra; entre outros”, explica ela.

Esse perfilamento é costumeiramente usado em redes sociais e páginas de e-commerce para que a plataforma construía um perfil de navegação. Os cliques dados, likes, páginas de interesse, com quais pessoas e conteúdos há mais interação, são alguns dos exemplos onde plataformas podem extrair informações sobre cada indivíduo.

Leia mais: Para diretor-presidente da ANPD, maioria entendeu ‘recados dados pela LGPD’

“Com essas informações, as empresas começam a ser capazes de criar questões preditivas em que o algoritmo aprende o perfil de compra do indivíduo e faz suposições. Quando misturamos o perfilamento de dados sensíveis, é mais sobre quem é você no seu íntimo e, se a companhia não coletar o consentimento prévio e expresso do indivíduo para essa finalidade, o tratamento de dados pessoais pode ser invasivo”, alerta Gisele.

Ou seja, enquanto a LGPD ajuda na proteção dos dados sensíveis e na privacidade do cidadão, ao falar da regulação de IA, ela colocará diretrizes e limites para que a tecnologia não extrapole a finalidade desse tratamento. Por exemplo, o caso de reconhecimento facial em voos agiliza o embarque, mas o usuário pode pensar: quais são as garantias que eu tenho que isso será usado só para essa finalidade? Os dados serão usados também em outras plataformas? E se um funcionário usar os meus dados?

A regulação da IA, inclusive, não está tão distante quanto parece. Em dezembro do ano passado, o anteprojeto de uma lei chamada Marco Legal da IA foi aprovado no Senado após uma comissão de 18 juristas desde março do mesmo ano. De acordo com Gisele, o Projeto de Lei substituiu outros três projetos sobre o mesmo assunto e é um documento com cerca de 45 artigos, princípios e regras.

“O relatório final tem mais de 900 páginas e essa proposta de lei é importante por esse contexto atual de evolução tecnológica. O objetivo principal é proteger as pessoas físicas que são diariamente impactadas pelos sistemas de IA e regular ferramentas de governança e fiscalização que podem garantir uma segurança jurídica para as pessoas e para a inovação e desenvolvimento econômico e tecnológico”, explica.

Um dos capítulos, diz Gisele, trata sobre os direitos básicos em todo e qualquer contexto em que haja interação entre máquina e ser humano. Além do princípio de informação e transparência, há o direito de contestação e interação humana. Ou seja, se houver uma dificuldade de comunicação, o indivíduo tem o direito de pedir para interagir com outro humano.

“Tem, também, um capítulo que fala de não discriminação. É um assunto muito sério e muito aberto, com muita pesquisa, mas não temos nada muito definido. Nós vemos questões discriminatórias acontecendo em plataformas  de maneira direta e indireta e isso acaba atrapalhando a privacidade e a vida das pessoas”, alerta.

Em uma seleção de RH, por exemplo, se uma pessoa preenche o currículo e coloca sua data de nascimento, dependendo do perfil que a plataforma está configurada para aprovar, pode haver discriminação etária. O mesmo pode acontecer com questões regionais: a plataforma pode ser configurada para excluir pessoas nascidas em certas regiões do Brasil.

“Isso pode acontecer e nós não sabemos como os sistemas são feitos. É como comer um bolo e não ter ideia do que ele é feito e quais as consequências para o organismo. Estamos todos bebendo dessa água, sem saber se tem veneno”, adverte Gisele.

Em outra parte do projeto, é prevista a questão da impossibilidade de desenvolvimento de tecnologia com o uso de IA que induza as pessoas a se comportarem de forma prejudicial ou que explorem a vulnerabilidade algum grupo específico.

Ao ser questionada quando esse projeto poderia estar em vigor, Gisele diz não ter como prever. “Entre o anteprojeto e a sanção da LGPD foram entre oito e dez anos. Eu acredito que essa questão da IA, até por conta desse desenvolvimento tecnológico desenfreado, será mais acelerado. Eu acredito que eles vão correr com isso o quanto antes. Eu acho que a gente não vai precisar esperar tudo isso para ter uma lei de regulação da IA, mas não vai ser em seis meses. Espero que isso saia nos próximos três ou quatro anos.”

Seta para cima
Mais lidas
Notícias

Nissan contará com tecnologia totalmente autônoma em 2020

8 anos atrás

1
CIO

Billing em um mundo Multicloud: grande desafio para 2019

7 anos atrás

2
Notícias

Capgemini adquire Adaptive Lab e amplia rede de estúdios de design digital

8 anos atrás

3
Notícias

PicPay simplifica compra no e-commerce

7 anos atrás

4
Notícias

Como estruturar o marketing para aperfeiçoar o atendimento ao cliente

8 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
dados
Dia Internacional da Proteção de Dados
IA
inteligência artificial

Nenhum autor cadastrado para este post.

Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

2 meses atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

2 meses atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

2 meses atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

2 meses atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados