🛠️ ESPAÇO DE ANÚNCIO (MODO DEV)
Slot: /23408374/cio-carreira
Tamanhos: [300,250], [750,450], [970,90]...
BCG
IA
inteligência artificial
RAI
regulação da IA

Maioria das empresas no mundo está despreparada para regulações em IA

O uso da inteligência artificial nas empresas está crescendo de forma exponencial. Entretanto, em um cenário onde se discute cada vez mais a necessidade de regulamentação da tecnologia, um novo estudo do Boston Consulting Group (BCG) indica que a grande maioria das empresas não está preparada para esse futuro: apenas 28% dos 2.700 líderes globais […]

Publicado: 10/12/2025 às 07:16
Leitura
5 minutos
Construção civil — Foto: Reprodução

O uso da inteligência artificial nas empresas está crescendo de forma exponencial. Entretanto, em um cenário onde se discute cada vez mais a necessidade de regulamentação da tecnologia, um novo estudo do Boston Consulting Group (BCG) indica que a grande maioria das empresas não está preparada para esse futuro: apenas 28% dos 2.700 líderes globais entrevistados afirmaram estar totalmente prontos para as leis e regulações que estão por vir.

Para o BCG, desenvolver um programa de inteligência artificial responsável (RAI, na sigla em inglês) é a melhor maneira de preparar o mercado para o futuro da IA. O programa busca garantir o uso ético da tecnologia, considerando seu impacto nos negócios e nas pessoas, e facilitar a governança dos sistemas.

“Um programa de RAI deve se basear em princípios como responsabilidade, transparência, privacidade e segurança. Dessa forma, há uma diretriz clara para o desenvolvimento e implementação equitativa e inclusiva de algoritmos. Essa estrutura é benéfica tanto para os criadores quanto para os usuários de inteligência artificial, preparando ambos para possíveis regulamentações futuras”, destaca o BCG em seu estudo.

Leia também: Privacidade já levou maioria dos brasileiros a desinstalarem algum app

Henrique Sinatura, diretor executivo e sócio do BCG, acrescenta que um programa de IA responsável deve ser visto como um mecanismo de inovação. Ele “aprimora o desempenho da tecnologia e estabelece ciclos de melhorias e de revisão, que ajudam a prevenir falhas ao levantar preocupações que envolvem a tecnologia. Empresas que compreenderem esse conceito e tratarem as regulamentações como oportunidade, em vez de um obstáculo, podem se destacar no mercado”, explica.

Os negócios com maior maturidade digital são mais propícios a desenvolverem um programa de RAI. Entretanto, o BCG ressalta que a iniciativa pode levar cerca de três anos para fazer um progresso significativo, por isso exige esforço e comprometimento. Porém essa dedicação traz vantagens: a inteligência artificial responsável ajuda as empresas a dimensionarem seus investimentos de IA, a identificar e corrigir problemas de forma antecipada, e a aumentar a adoção da tecnologia por clientes e colaboradores, ao mesmo tempo em que minimiza falhas.

“Nossa pesquisa mostrou que companhias mais maduras digitalmente têm quase seis vezes mais chances de estarem preparadas para a regulamentação da IA. Notamos, também, que os setores de telecomunicações, tecnologia e consumo estão na frente dos demais em termos de preparação, mostrando que a ferramenta pode colaborar, e muito, com o relacionamento e jornada do consumidor”, aponta Sinatura.

Princípios da IA responsável

Entre as empresas que desenvolveram um programa de IA responsável bem-sucedido, há cinco princípios em comum identificados pelo estudo. São eles:

Liderança de RAI emponderada: os líderes de um projeto de RAI precisam desempenhar um papel crítico na manutenção das iniciativas no caminho certo. Para terem sucesso, eles ainda precisam ser colaborativos e devem contar com uma equipe multifuncional para projetar e liderar programas RAI, incluindo as unidades de negócios, bem como os departamentos jurídico, de RH, de TI e de marketing.

Construir e fomentar uma estrutura ética de IA: no centro da RAI está um conjunto de princípios e políticas que devem ser incorporados à cultura e às políticas da empresa. Isso estabelece uma base que faz com que seja mais fácil a empresa se adaptar caso surjam regulamentações específicas, pois ela já pratica esses princípios. Assim, mitiga o risco de prejudicar metas e investimentos.

Humanos na IA: a maioria dos regulamentos de IA atuais e que estão sendo propostos exigem uma forte governança humana, o que se alinha com um princípio central da RAI: envolvimento humano em processos e plataformas de inteligência artificial.

Ferramentas e métodos para revisão: a IA responsável abrange o ciclo de vida de um sistema de inteligência artificial e a sua meta é detectar e resolver problemas o quanto antes, além de manter a atenção aos riscos durante e após seu lançamento. O primeiro passo para isso é garantir a revisão constante de que os princípios básicos do RAI, como transparência e inclusão, estejam integrados nos processos para construir e trabalhar com algoritmos.

Participar do ecossistema de RAI: na pesquisa do BCG foi apontado que quase 90% das empresas contribuem ativamente para um grupo de trabalho de inteligência artificial responsável. Essa é uma estratégia válida que promove a colaboração e o compartilhamento de informações, o que pode ajudar direcionar o desenvolvimento das melhores práticas nos projetos.

“Usar a inteligência artificial com responsabilidade é, de certa forma, criar valor com ela. A incerteza que temos sobre o escopo dos regulamentos que estão por vir não pode ser um fator para impedir o desenvolvimento de um programa de uso da tecnologia de forma responsável. Quem começar agora a trabalhar na RAI conseguirá ajudar a moldar o futuro da IA”, finaliza Sinatura.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Todas
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Inserir e-mail
Autor
Notícias relacionadas