Logotipo IT Forum
IT Forum Instituto Itaqui Distrito Itaqui IT Invest
IT Forum - A Comunidade de Tecnologia se Encontra Aqui
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • IA
  • Cibersegurança
  • Plataformas
  • ESG
  • Vídeos
  • Nossas colunas
  • Colunistas
  • Pesquisas
  • Prêmios
Revistas
  • IT Forum Líderes
  • Series
  • Histórias da TI
  • Ver todos
  • Todos os eventos
  • IT Forum Trancoso
  • IT Forum Forte
  • IT Forum Mata
  • Sobre o HIT
  • Todos os materiais
Todas as notícias Negócios Liderança CIO Carreira IA Cibersegurança Plataformas ESG Vídeos
Nossas colunas Colunistas
Pesquisas Prêmios
Revistas
Todos os videocasts E agora, TI? Entre Tech IT Forum Líderes Series
Todos os eventos Trancoso
Todos os materiais Todos os materiais
  1. Home
  2. Notícias
  3. Cibersegurança
  4. Inteligência artificial e a próxima fronteira da inovação: por que a confiança definirá a oportunidade de US$ 20 trilhões
cibersegurança
dados
Fórum Econômico Mundial
IA

Inteligência artificial e a próxima fronteira da inovação: por que a confiança definirá a oportunidade de US$ 20 trilhões

Cibersegurança concentrou-se no fortalecimento da infraestrutura, mas manter a confiança está se deslocando para algo ainda mais difícil de detectar.

Publicado:
26/01/2026 às 17:30
Jonathan Zanger
Leitura
6 minutos
Mão robótica estende um dedo em direção a um conjunto de interfaces digitais luminosas. No centro da composição, aparece o texto “AI Ethics” dentro de um painel azul brilhante. Ao redor, ícones holográficos representam justiça, governança, colaboração, segurança, regulamentação e tecnologia. Na parte inferior, uma mão humana sustenta uma base luminosa, simbolizando a interação entre pessoas e inteligência artificial em um contexto ético e tecnológico. (confiança, I2AI, Marketing B2A, conteúdo inteligente)
Imagem: Shutterstock

A IA está remodelando a forma como diferentes setores da economia operam, competem e criam valor em uma velocidade sem precedentes. Até 2030, estima-se que a IA adicionará quase US$ 20 trilhões ao PIB global, consolidando seu lugar como uma das forças econômicas mais poderosas do nosso século. No entanto, à medida que a IA se torna cada vez mais incorporada às operações de negócios, uma nova fronteira de risco surge rapidamente, enraizada na compreensão frágil que as máquinas têm do significado e do contexto da linguagem humana.

A IA generativa e os grandes modelos de linguagem (LLMs) estão avançando para o núcleo de fluxos de trabalho críticos em todos os setores. Instituições financeiras os utilizam para analisar mercados e antecipar volatilidade. As indústrias os integram para orquestrar cadeias de suprimentos complexas. Organizações de saúde os aplicam para triar informações e acelerar pesquisas.

Mas, à medida que a dependência de sistemas de IA generativa se acelera, também cresce uma nova classe de ameaças que explora a comunicação, e não o código. Elas atacam aquilo que a IA compreende, e não a forma como ela executa. E estão surgindo mais rápido do que a maioria das organizações está preparada para detectar e defender.

LLMs e o cenário emergente de ameaças

Tradicionalmente, a cibersegurança concentrou-se no fortalecimento da infraestrutura: proteger redes, corrigir vulnerabilidades e aplicar controles de identidade. Mas o cenário atual de ameaças está se deslocando para algo mais sutil e ainda mais difícil de detectar. Os cibercriminosos já não precisam explorar falhas de software ou invadir uma rede para causar danos. Eles podem manipular a forma como os sistemas de IA interpretam a linguagem, transformando a semântica em superfície de ataque.

Instruções maliciosas ocultas podem ficar escondidas à vista de todos, em dados públicos, materiais de treinamento, entradas de clientes ou documentação de código aberto. Essas manipulações podem redirecionar o raciocínio de um modelo, distorcer seus resultados ou comprometer os insights que ele fornece aos tomadores de decisão. Como esses ataques ocorrem em linguagem natural, as ferramentas tradicionais de segurança raramente os identificam. O modelo é envenenado na origem, muito antes de alguém perceber que algo está errado. Para organizações que não dispõem de preparação e proteção adequadas, isso representa um risco sério e, muitas vezes, invisível.

Esta não é uma ameaça hipotética. Conforme mais organizações adotam sistemas de IA autônomos e semiautônomos, o incentivo para que adversários ataquem a camada da linguagem só tende a crescer. O custo de entrada para os atacantes é baixo, e o potencial de dano é enorme.

Leia mais: Por que 90% das transformações digitais falham, segundo CEO do Cesar

A ameaça silenciosa do insider

Quando um modelo de IA é comprometido, ele se comporta como uma ameaça interna. Pode vazar silenciosamente propriedade intelectual, alterar recomendações estratégicas ou gerar resultados que beneficiem um terceiro. O desafio está na sua invisibilidade: o modelo atua sem levantar alertas. O sistema continua respondendo a perguntas, resumindo documentos, processando dados e auxiliando funcionários. Ele simplesmente faz tudo isso de maneira sutilmente desalinhada.

O que estamos vendo agora é uma mudança no risco corporativo, que deixa de se concentrar apenas na proteção de dados e passa a abranger a proteção do conhecimento. A questão central para os líderes de segurança já não é somente quem possui direitos de acesso, mas também o que seus modelos absorveram e de onde esse conhecimento se origina.

A lacuna de governança

Apesar da dimensão da ameaça, muitas organizações permanecem focadas em quem está usando a IA, e não no que seus sistemas de IA estão ingerindo. Essa lacuna se amplia conforme a adoção da IA se acelera e a autonomia aumenta. Construir ecossistemas de IA confiáveis e resilientes exige que as empresas verifiquem a integridade e a autenticidade de cada conjunto de dados, instrução e fonte de conteúdo que alimenta seus modelos.

Isso se alinha de perto a um tema central que emerge para o Fórum Econômico Mundial de 2026 em Davos: concretizar o vasto potencial econômico da IA depende de uma implantação responsável e de confiança verificável. A IA não pode permanecer uma caixa-preta, nem consumir passivamente dados não controlados. Os sistemas que gerarão maior valor econômico e social serão aqueles concebidos com rastreabilidade, transparência e responsabilidade em seu núcleo.

Construindo confiança no centro da IA

Enfrentar esse novo cenário de ameaças começa com um princípio simples, porém transformador: confiança zero. Não confie em nada. Verifique tudo, continuamente.

Embora a confiança zero não seja um conceito novo em segurança, seu escopo precisa ir além dos controles de acesso e incluir os dados e as instruções que treinam e orientam os sistemas de IA. Isso exige monitoramento constante da evolução dos modelos, rastreamento da origem de seus conhecimentos e incorporação de responsabilidade ao longo de todo o ciclo de vida da IA. Alfabetização em IA, proveniência de dados e confiança digital agora precisam estar no mesmo nível de prioridade de temas como ESG e cibersegurança nos conselhos de administração, pois a integridade da inteligência corporativa depende cada vez mais deles.

A conscientização global sobre esses riscos está crescendo. O OECD AI Risk and Safety Framework (OCDE – Organização para a Cooperação e Desenvolvimento Econômico), lançado em 2025, e iniciativas internacionais semelhantes reconhecem a manipulação de dados e o uso indevido de IA como áreas críticas que exigem padrões compartilhados e supervisão. Para as empresas, alinhar a governança a esses frameworks fortalece a resiliência operacional e reforça a confiança pública.

Proteger a IA passa por assegurar a linguagem que ela compreende

Para concretizar todo o potencial da IA, líderes de cibersegurança precisam abraçar a ideia de que inteligência segura é inteligência sustentável. A próxima era da cibersegurança será definida não pela defesa de sistemas, mas pela defesa da semântica. A integridade de como as máquinas raciocinam, interpretam e se comunicam está se tornando um ativo estratégico.

Proteger a IA significa proteger a própria linguagem da qual ela depende. A confiança definirá a próxima fronteira da inovação. Organizações e nações que liderarem esse campo tratarão a confiança tanto como um diferencial competitivo quanto como uma responsabilidade global compartilhada.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Seta para cima
Mais lidas
Notícias

Contact center do futuro: 5 investimentos essenciais

6 anos atrás

1
Notícias

Nodes Tecnologia lança aplicação que adiciona camada de proteção às soluções antivírus

7 anos atrás

2
Notícias

Formação de equipes voltadas para valor e inovação é solução para escassez de talentos em TI

13 anos atrás

3
Notícias

TV Digital: tudo o que você precisa saber sobre a migração

9 anos atrás

4
CIO

Como trabalhar (e coinovar) com startups? 5 etapas para garantir o sucesso

6 anos atrás

5
Logo IT Forum
Newsletter
As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada.
Instagram Linkedin Facebook Tiktok Youtube
1 / 1
cibersegurança
dados
Fórum Econômico Mundial
IA
Autor
Jonathan Zanger
Jonathan Zanger, Chief Technology Officer (CTO), lidera a estratégia e as iniciativas da Check Point Software em inteligência artificial e inovação tecnológica de forma mais ampla. Antes de ingressar na Check Point Software, Zanger foi CTO da Trigo, onde liderou a construção e a expansão de uma plataforma avançada de inteligência artificial. Zanger possui dois mestrados (Master of Science em Engenharia Elétrica e Ciência da Computação e MBA) pelo Massachusetts Institute of Technology (MIT), além de bacharelado em Ciência da Computação e Física pela Universidade Hebraica de Jerusalém.
Ver publicações deste autor
Notícias relacionadas
Ver mais Seta para direita
Notícias relacionadas
Ver mais Seta para direita
Capital cognitivo híbrido, o próximo capital das organizações
Gestão
Capital cognitivo híbrido, o próximo capital das organizações

Heriton Duarte

2 meses atrás

Dilema da IA está entre escalar produtividade e preservar confiança
Inteligência Artificial
Dilema da IA está entre escalar produtividade e preservar confiança

Déborah Oliveira

2 meses atrás

“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz
Inteligência Artificial
“O varejo não compete mais por canal, mas por capacidade de movimentar produtos”, diz CIO da Motz

Pamela Sousa

2 meses atrás

Xerox anuncia nova estrutura global para o mercado da Print
Negócios
Xerox anuncia nova estrutura global para o mercado da Print

Redação

2 meses atrás

Conectando a tecnologia e o futuro dos negócios

Insights e inovações para líderes no IT Forum.

Conteúdos

  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos

Notícias

  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos

IT Forum

  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie
  • Notícias
  • Colunas
  • Pesquisas
  • Series
  • Revistas
  • Videocasts
  • Eventos
  • Todas as notícias
  • Negócios
  • Liderança
  • CIO
  • Carreira
  • Inteligência Artificial
  • Cibersegurança
  • Plataformas
  • Sustentabilidade
  • Vídeos
  • Sobre nós
  • Envie seu Release
  • Mídia Kit
  • Contato
  • Expediente
  • Cultura
  • Distrito Itaqui
  • Anuncie

Logo do IT Forum
Estr. Dr. Yojiro Takaoka, 4601 - Ingahi, Itapevi - SP, 06696-050
Icone Instagram Icone Linkedin Icone Facebook Icone TikTok Icone YouTube
  • Link Política de privacidade
  • Link Fale conosco
  • Link Termos de uso
  • Link Trabalhe conosco
Copyright © 2026 IT FORUM - Todos os Direitos Reservados