Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Gestão
  4. 5 dicas essenciais para manter os modelos de Machine Learning no caminho certo
CIOs
machine learning

5 dicas essenciais para manter os modelos de Machine Learning no caminho certo

Conforme ML faz mais uso de redes neurais profundas, as empresas estão mais dependentes de uma tecnologia que os especialistas não entendem

Publicado:
06/01/2022 às 10:00
Leitura
5 minutos

Não há dúvida de que a IA e o machine learning (ML) desempenharão um papel cada vez mais vital no desenvolvimento de tecnologia empresarial e apoiarão uma ampla gama de iniciativas corporativas nos próximos anos.

As receitas mundiais para o mercado de IA, incluindo software, hardware e serviços, devem chegar a US$ 341,8 bilhões este ano e crescer a uma taxa anual de 18,8% para quebrar a marca de US$ 500 bilhões até 2024, de acordo com o IDC. E, em 2026, 30% das organizações confiarão rotineiramente em insights com suporte de IA/ML para conduzir ações que podem resultar em um aumento de 60% nos resultados desejados (na verdade, 30% pode ser uma estimativa baixa).

Apesar do otimismo, o problema é que os modelos de redes neurais profundas (DNN) que estão impulsionando o aumento na adoção de ML é que os pesquisadores não entendem exatamente como eles funcionam. Se os líderes de TI colocarem em campo uma tecnologia sem entender a base de sua operação, corremos o risco de ter uma série de resultados ruins. Os sistemas podem ser inseguros no sentido de que podem ser tendenciosos, imprevisíveis e/ou produzir resultados que não podem ser facilmente compreendidos por seus operadores humanos. Esses sistemas também podem conter idiossincrasias que serão exploradas por adversários.

Quando o ML é aplicado a aplicativos de missão crítica, os CIOs e suas equipes de engenharia se deparam com um paradoxo: a escolha entre os melhores resultados que o ML pode oferecer versus o risco de resultados ruins. Isso pode até se tornar um dilema moral. Suponha que uma DNN usada para processar imagens médicas possa reconhecer certas formas de câncer melhor do que o médico típico. Somos moralmente obrigados a desenvolver essa tecnologia, que pode ter efeitos positivos que salvam vidas, mesmo que não saibamos como ela alcança seus resultados?

Um objetivo de longo prazo de alguns pesquisadores de ML é desenvolver uma compreensão mais completa das DNNs, mas o que os profissionais devem fazer entre agora e então, especialmente quando resultados ruins podem envolver risco à vida e/ou propriedade?

Estabelecendo rotas para machine learning

Os engenheiros já enfrentaram situações semelhantes no passado. Nos primeiros dias da aeronáutica, por exemplo, não tínhamos uma compreensão tão completa da física subjacente ou capacidade de analisar projetos de aeronaves. Para compensar essa falta de compreensão, engenheiros aeronáuticos e pilotos de teste identificariam o envelope operacional dentro do qual a aeronave poderia voar com segurança e, em seguida, tomariam medidas – por meio de sistemas de controle de vôo, treinamento de pilotos e assim por diante – para garantir que a aeronave só fosse operada dentro daquele envelope seguro.

Essa mesma abordagem de desenvolver um envelope operacional seguro e previsível pode ser aplicada ao ML com a criação de grades de proteção que mantêm os modelos de ML no caminho certo e minimizam a possibilidade de saídas inseguras e/ou imprevisíveis.

A seguir, algumas abordagens sugeridas no estabelecimento de sistemas de ML com maior segurança e previsibilidade:

  1. Identifique a gama de saídas do modelo que são consideradas seguras. Uma vez que a faixa de saída segura tenha sido identificada, podemos retroceder no modelo para identificar um conjunto de entradas seguras cujas saídas sempre ficarão dentro do envelope desejado. Os pesquisadores mostraram que essa análise pode ser feita para certos tipos de modelos baseados em DNN.
  2. Instale “grades de proteção na frente” do modelo. Depois de saber a faixa segura de entradas, você pode instalar um software de segurança na frente do modelo para garantir que nunca sejam mostradas entradas que o levem a um local inseguro. Com efeito, a ferramenta mantém o sistema ML sob controle. Mesmo que não saibamos exatamente como o modelo chega a uma saída específica, saberemos que as saídas são sempre seguras.
  3. Concentre-se em modelos que geram resultados previsíveis. Além de manter as saídas dentro de uma faixa segura, também queremos saber se os modelos não produzem resultados que oscilam descontroladamente de uma parte do espaço de saída para outra. Para certas classes de DNNs, é possível garantir que, se uma entrada mudar apenas por uma pequena quantidade, a saída mudará proporcionalmente e não saltará de forma imprevisível para uma parte completamente diferente da faixa de saída.
  4. Treine os modelos para serem seguros e previsíveis. Os pesquisadores estão encontrando maneiras de alterar sutilmente o treinamento dos DNNs para que se tornem receptivos à análise acima, sem comprometer suas capacidades de reconhecimento de padrões.
  5. Permaneça ágil. Como este é um espaço de rápida movimentação, a chave é construir guarda-corpos na arquitetura de ML, mantendo a agilidade para evoluí-los e aprimorá-los à medida que novas técnicas se tornam disponíveis.

A tarefa dos líderes de TI é garantir que os modelos de ML que eles desenvolvem e implantam estejam sob controle. Estabelecer guarda-corpos é uma etapa provisória importante, enquanto desenvolvemos um melhor entendimento de como funcionam as DNNs.

Seta para cima
Mais lidas
Acervo

Letramento digital e revisão de processos são os novos pilares da IA no varejo

4 semanas atrás

1
Negócios

Back office tradicional deve desaparecer até 2027 no setor financeiro e de seguros, aponta estudo

2 meses atrás

2
Inteligência Artificial

Carnaval acelera uso de IA conversacional no varejo brasileiro

1 mês atrás

3
Gestão

10 tendências tecnológicas estratégicas para 2026

3 meses atrás

4
Gestão

Eleições em Belo Horizonte: o que os candidatos propõem para a tecnologia na gestão pública

1 ano atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
CIOs
machine learning

Nenhum autor cadastrado para este post.

Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

3 semanas atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

3 semanas atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

3 semanas atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

4 semanas atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados