Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. 5 orientações éticas da IA que todo executivo C-level deve ler
ética
inteligência artificial
privacidade
tecnologia

5 orientações éticas da IA que todo executivo C-level deve ler

Publicado:
11/08/2019 às 08:51
Leitura
7 minutos
5 orientações éticas da IA que todo executivo C-level deve ler

Especialistas em tecnologia preveem que a taxa de adoção de inteligência artificial (IA) e aprendizado de máquina vai disparar nos próximos dois anos. Essas tecnologias avançadas gerarão ganhos de negócios sem precedentes, mas, ao longo do caminho, os líderes corporativos precisarão lidar rapidamente com uma miscelânea de novos dilemas éticos. Isso inclui tudo, desde viés algorítmico de IA e problemas de privacidade de dados até questões de segurança pública de máquinas autônomas executadas com IA.

Como a tecnologia da IA e suas funções de uso estão mudando muito rapidamente, os executivos terão dificuldade em se manter à frente dessas preocupações éticas sem algum tipo de roteiro. A fim de orientar tanto o pensamento profundo quanto a rápida tomada de decisões sobre tecnologias de IA emergentes, as organizações devem considerar o desenvolvimento de uma estrutura interna de ética de IA.

Esse quadro não será capaz de dar conta de todas as exigências que uma empresa encontrará em sua jornada para aumentar a adoção da IA, mas pode lançar as bases para futuras discussões executivas. Com uma estrutura em mãos, eles poderão planejar com confiança um caminho sensato que se alinhe com a cultura, a tolerância ao risco e os objetivos de negócios da empresa.

A boa notícia é que os executivos não precisarão criar uma estrutura de ética em IA do nada. Muitos pensadores inteligentes no mundo da IA têm ponderado sobre questões de ética há algum tempo e publicaram uma série de diretrizes fundamentais que uma organização pode usar para elaborar um quadro que faça sentido para seus negócios. A seguir, estão cinco dos melhores recursos para que líderes de tecnologia e ética possam começar essa jornada.

Instituto Future of Life
Princípios da IA de Asilomar

Desenvolvido em conjunto com a conferência Asilomar 2017, essa lista de princípios tem sido universalmente citada como ponto de referência por todos os outros quadros de ética e padrões de IA introduzidos desde a sua publicação. Assinado por mais de 1.200 pesquisadores de IA e robótica e mais de 2.500 outros dignitários técnicos, incluindo Stephen Hawking, Elon Musk e Ray Kurzweil, esse recurso é uma lista simples de princípios fundamentais que devem guiar líderes empresariais, formuladores de políticas governamentais e tecnólogos, à medida que progredimos com o avanço da IA.

IAPP
Desenvolvendo a ética em quadros de privacidade para big data e IA

Esse documento prático é leitura obrigatória para executivos de empresas que tentam lidar com questões de ética em IA. Ele oferece uma explicação concisa das preocupações éticas em jogo nos usos aplicados de IA e Big Data, bem como as consequências de ignorar essas questões. Oferece também um resumo das ferramentas disponíveis para organizações que buscam não apenas desenvolver estruturas internas, mas também operacionalizar políticas de ética de dados. Ele ajuda os líderes de ética em IA a considerarem as preocupações específicas do setor, as nuances organizacionais e até mesmo as diferenças departamentais na criação de um framework que seja tão flexível quanto holístico.

“Várias estruturas de ética de dados devem ter recursos comuns para garantir um padrão ético de práticas de dados uniformemente alto. No entanto essas estruturas serão mais eficazes se forem flexíveis o suficiente para serem adaptadas a cada empresa e organização específica, ajustando o tamanho, os recursos, a área de assunto e o impacto nas questões dos dados”, diz trecho do documento.

IEEE
Iniciativa global da IEEE sobre a ética de sistemas autônomos

Desde 2016, o IEEE tem assumido a liderança na organização de discursos entre pensadores, técnicos, líderes empresariais e especialistas em políticas públicas sobre o projeto ético de sistemas autônomos e inteligentes. Como parte desse trabalho, a iniciativa global sobre a ética de sistemas autônomos e inteligentes do IEEE publicou o Ethically Aligned Design, uma verdadeira bíblia para abordar “valores e atenções, bem como implementações” desses sistemas. Esse volume digital de quase 300 páginas oferece uma tonelada de valor aos executivos que embarcam na jornada de desenvolvimento de uma estrutura interna.

Além disso, a iniciativa global da IEEE lidera o esforço nos grupos de trabalho de padrões IEEE P7000, que oferecem processos de orientação de modelos para abordar preocupações éticas durante o projeto do sistema, privacidade de dados, viés algorítmico e outros tópicos importantes na ética da IA.

Ong Epic (Electronic Private Information Center)
Diretrizes universais para inteligência artificial

Introduzidas em outubro de 2018, essas diretrizes foram escritas para serem “incorporadas a padrões éticos, adotadas em leis nacionais e acordos internacionais, e incorporadas ao projeto de sistemas”. É um documento voltado para os direitos humanos com ênfase em transparência, imparcialidade, precisão e qualidade dos dados, além de exigir do governo a restrição de perfis secretos ou da classificação dos cidadãos.

“Nossa preocupação é com os sistemas que impactam os direitos das pessoas. Acima de tudo, esses sistemas não devem causar danos”, escrevem seus criadores.

Conselho da União Europeia
Diretrizes sobre inteligência artificial e proteção de dados

Elaborado por um grupo independente de consultores de ética em IA e ajustado com o uso de mais de 500 comentários durante um período de feedback de cinco meses, esse é um dos quadros públicos mais recentes e mais abrangentes sobre a ética da IA até hoje. Não é um documento de política oficial ou regulamento da Comissão Europeia, mas sim um conjunto de sugestões destinadas a orientar o discurso público sobre a IA confiável.

Essas diretrizes visam ajudar os projetistas e usuários de IA a escolherem sistemas que sejam legais, éticos e robustos, com sete princípios que estabelecem o que é necessário para criar uma IA confiável:

  • agência e supervisão humana: incluindo direitos fundamentais, ação e supervisão humanos;
  • robustez e segurança técnica: incluindo resiliência a ataques e segurança, plano de retorno e segurança geral, precisão, confiabilidade e reprodutibilidade;
  • privacidade e governança de dados: incluindo respeito pela privacidade, qualidade e integridade dos dados e acesso aos dados;
  • transparência: incluindo rastreabilidade, explicabilidade e comunicação;
  • diversidade, não discriminação e justiça: incluindo a prevenção de preconceitos, acessibilidade e design universal, e a participação de stakeholders;
  • bem-estar social e ambiental: incluindo sustentabilidade e respeito pelo meio ambiente, impacto social, sociedade e democracia;
  • responsabilidade: incluindo auditabilidade, minimização e relato de impacto negativo, compensações e reparação.

*Por Marcello Pinsdorf, é country manager da BlackBerry Cylance no Brasil. Formado em Engenharia Eletrônica pela Escola de Engenharia de Mauá e com MBA em TI pela Faculdade Getúlio Vargas, o executivo tem como seu principal desafio ampliar a presença da empresa no país, levando a segurança da informação baseada em inteligência artificial a todas as empresas brasileiras.

**Sobre a BlackBerry: a BlackBerry Limited capacita as Enterprises of Things, empresas equipadas com a Internet das Coisas, fornecendo a tecnologia que permite que os endpoints confiem uns nos outros, comuniquem-se com segurança e mantenham a privacidade. Com sede em Waterloo, Ontário, Canadá, a empresa foi fundada em 1984 e opera globalmente.

***Sobre a Cylance: a Cylance desenvolve inteligência artificial (IA)para fornecer produtos de segurança preventivos e soluções inteligentes, simples e confiáveis, que mudam a forma como as organizações abordam a segurança de terminais. A Cylance fornece prevenção e visibilidade de ameaças de espectro total em toda a empresa para combater os ataques de segurança cibernética mais notórios e avançados. Com prevenção de malware baseada em IA, detecção de ameaças, detecção e resposta automatizadas e serviços de segurança especializados, a Cylance protege o endpoint sem aumentar a carga de trabalho ou os custos da equipe. Nós chamamos isso de ciência da segurança. 

Seta para cima
Mais lidas
Cibersegurança

Proxyware é a nova forma de lucrar dos ciberatacantes

5 anos atrás

1
Notícias

Exportação é alvo da Plug In

15 anos atrás

2
Notícias

Importadora de vinhos investe R$ 250 mil obter mais controle

18 anos atrás

3
Notícias

Converta a experiência do cliente digital em receita para o seu negócio

6 anos atrás

4
Notícias

Preview 2.1 Subwoofer Slim

16 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
ética
inteligência artificial
privacidade
tecnologia

Nenhum autor cadastrado para este post.

Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

1 mês atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

1 mês atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

1 mês atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

1 mês atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados