Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Colunas
  3. IA responsável é um processo, e não um produto

IA responsável é um processo, e não um produto

Uso responsável de IA precisa partir do conceito, estando presente em toda a cadeia de desenvolvimento, e não apenas na aplicação final

Publicado:
09/01/2024 às 10:00
Avatar de Fabiano Sabatini
Fabiano Sabatini
Leitura
5 minutos
Imagem: Shutterstock
Imagem: Shutterstock

A inteligência artificial é, sem dúvidas, uma tecnologia que veio para ficar, e promete ser tão – ou mais – disruptiva para a sociedade quanto a popularização da internet e seus desdobramentos. De smartphones à Internet das Coisas (IoT), a presença online quase permanente já acelera muito o desenvolvimento da automação de atividades.

Até então, este processo dependia do fator humano, sujeito a um nível mais profundo de intervenção, rotinas fechadas, e com parâmetros claros predeterminados. Com a IA e aprendizado de máquinas, as decisões importantes são cada vez mais retiradas das mãos de pessoas para, justamente, minimizar fatores como erro humano e otimizar a tomada de decisões em situações críticas.

Da formação da equipe à última linha de código

No entanto, isto também elimina a principal vantagem da intervenção direta: a análise subjetiva de contextos. Este ponto específico pode ser a diferença, por exemplo, entre um veículo autônomo desviar ou não de uma pessoa cruzando uma via fora da faixa de pedestres, como no acidente trágico de 2018 que deixou uma vítima fatal.

Casos como este levantam questionamentos sobre diversas questões éticas em relação à implementação indiscriminada de IA em produtos e serviços. Quase sempre, a discussão recai sobre as Leis de Asimov, exploradas à exaustão na ficção, mas a análise é geralmente superficial, em torno apenas de maneiras de responsabilizar a tecnologia por resultados que, direta ou indiretamente, ainda são frutos de ações humanas.

Leia também: Visão computacional e IA a serviço da sociedade

É impossível dissociar completamente a criação do criador, independente do quanto o aprendizado de máquina avance. Mesmo que eventualmente seja possível ter IAs tomando decisões contextualizadas – e tudo indica que será –, baseadas em análises mais profundas de comportamentos e condutas sociais não escritas, essencialmente ainda se trata de uma tecnologia.

Treinamento enviesado = solução enviesada

O que muda na prática é que, com ferramentas que dependem de interação direta constante, a intencionalidade pode ser definida durante o processo. Já com a IA, os parâmetros definidos para o treinamento, capacidades de aprendizado e execução, propriamente, de tarefas definem as possíveis tomadas de decisão muito antes de aplicações reais, muitas vezes inesperadas.

Tanto por isso, seu uso e desenvolvimento precisam ser avaliados rigorosamente. Por essa razão, diversas Big Techs já trazem na missão e valores da empresa que o desenvolvimento de quaisquer tecnologias, e não apenas Inteligência Artificial, devem ser pautados de perto pela ética e direitos humanos.

Pensando em sistemas de vigilância, o uso de visão computacional para identificar suspeitos em potencial, é um tema bastante recorrente. Isso se deve ao fato de que, de acordo com o IBGE em 2022, a distribuição da população brasileira segundo cor ou raça é de 42,8% Branca, 10,6% Preta e 45,3% Parda, conforme declarado pelas pessoas. Ao treinar um algoritmo de identificação automatizada com base em dados que não apresentem a representatividade adequada, esse mesmo viés é replicado nos sistemas de vigilância que utilizarem esse algoritmo.

Pilares para uma IA responsável

Segundo Pat Gelsinger (CEO da Intel), o desenvolvimento responsável da Inteligência Artificial precisa ser sustentado por alguns pilares bastante claros. O primeiro deles é que todas as etapas do ciclo de desenvolvimento precisam passar por revisões rigorosas de equipes multidisciplinares e multiculturais.

A diversidade sócio-cultural é fundamental para levar experiências, vivências e ponto de vistas diferentes para um mesmo contexto. Além de ampliar os parâmetros de entrada de instruções, isto reduz consideravelmente vieses de como os dados são processados, aprendidos, e aplicados nas ações dessas IAs.

Outro elemento imprescindível é o trabalho colaborativo entre empresas e organizações. O conhecimento e experiência compartilhados auxiliam a identificar e prevenir o mau uso dessas ferramentas, ou mesmo sua aplicação deliberada para prejudicar pessoas ou grupos específicos.

Pesquisas etnográficas para reconhecer e compreender problemas de recortes mais diversos, permitem identificar formas mais apropriadas e compreensíveis de lidar com questões delicadas. Trazer estes conhecimentos para as ferramentas de desenvolvimento ajuda a direcionar os produtos criados para soluções também pautadas pela Diversidade e Inclusão.

Naturalmente, D&I precisa estar na cultura das empresas de pesquisa e desenvolvimento de IA, dos cargos de entrada às lideranças. O Controle de Qualidade (QA) é apenas uma das etapas do processo, e sua visão costuma ser mais abrangente e menos técnica.

Ter equipes diversas, com equidade entre os pares e cultura inclusiva forte garante que todas as etapas contribuam dentro de suas competências para uma solução de IA também inclusiva.

Mesmo com todos esses cuidados, a Inteligência Artificial ainda estará sujeita a aplicações questionáveis, como qualquer outra tecnologia. Dessa forma, uma IA responsável precisa ser trabalhada em absolutamente todos os seus ciclos, desde a concepção, e não apenas na ponta, onde o que resta é, geralmente, apontar dedos procurando culpados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Notícias

SEIAS moderniza gestão com Sonda Ativas

8 anos atrás

1
Gestão

Embratel é integrada ao grupo Claro empresas e anuncia reestruturação

12 meses atrás

2
Notícias

Gestão de riscos atrai profissionais que buscam qualificação

9 anos atrás

3
Notícias

Em hackathon, Plug e Raízen desafiam desenvolvimento de soluções de investimento

9 anos atrás

4
Computerworld Brasil

Microsoft está integrando ChatGPT3 ao mecanismo de busca do Bing

3 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
Sobre o Autor
Avatar de Fabiano Sabatini
Fabiano Sabatini
LinkedIn de Fabiano Sabatini

Fabiano Sabatini é gerente técnico e especialista em IoT da Intel Brasil.

Com experiência em engenharia eletrônica e TI, Sabatini é um dos responsáveis por identificar oportunidades e desenvolver soluções de AIoT utilizando as últimas tecnologias da Intel.

Ver publicações deste autor
Colunas relacionadas
Ver mais Seta para direita
Colunas relacionadas

Fatal error: Uncaught Error: Cannot use object of type WP_Error as array in /opt/bitnami/wordpress/wp-content/themes/itforumportal/single-colunas.php:751 Stack trace: #0 /opt/bitnami/wordpress/wp-includes/template-loader.php(113): include() #1 /opt/bitnami/wordpress/wp-blog-header.php(19): require_once('...') #2 /opt/bitnami/wordpress/index.php(17): require('...') #3 {main} thrown in /opt/bitnami/wordpress/wp-content/themes/itforumportal/single-colunas.php on line 751