Camila Achutti
G20
W20
Women20

“Precisamos garantir que os algoritmos não exacerbam as desigualdades”, diz Camila Achutti, do W20

Um estudo do Berkeley Haas Center for Equity, Gender and Leadership analisou 133 sistemas de IA em diferentes setores e descobriu que cerca de 44% deles apresentavam viés de gênero, e 25% exibiam viés de gênero e racial. Esses dados evidenciam a urgência de abordar a ética na Inteligência Artificial (IA), uma das pautas principais […]

Publicado: 11/12/2025 às 17:23
Leitura
4 minutos
Camila Achutti, do W20. Créditos: Felipe Roehe
Construção civil — Foto: Reprodução

Um estudo do Berkeley Haas Center for Equity, Gender and Leadership analisou 133 sistemas de IA em diferentes setores e descobriu que cerca de 44% deles apresentavam viés de gênero, e 25% exibiam viés de gênero e racial. Esses dados evidenciam a urgência de abordar a ética na Inteligência Artificial (IA), uma das pautas principais no ano do Women20 (W20), iniciativa do G20 focada em aconselhamento aos líderes de estado sobre diversidade, inclusão digital, educação e igualdade de gênero. 

Para discutir a questão, o IT Forum entrevistou Camila Achutti, delegada do W20. Camila, fundadora da Mastertech e ativista pela inclusão de mulheres na tecnologia, destacou a importância de garantir que os algoritmos não agravem desigualdades já existentes. “A nossa grande luta é por uma inteligência artificial justa, transparente e ética”, afirmou. Ela sublinhou a necessidade de regulamentações que assegurem uma coleta de dados coerente e desagregada por gênero. 

Leia também: EUA x China: sanções americanas impulsionam autossuficiência tecnológica chinesa 

A executiva ressaltou que a discussão sobre IA ética, anteriormente marginal, agora é central. “Mais do que garantir acesso, temos que garantir que esses algoritmos não exacerbem ainda mais as desigualdades já existentes”, disse. Para ela, a coleta de dados precisa ser representativa e livre de vieses. “Advogamos muito sobre como garantir que a coleta de dados seja coerente, que esteja desagregada por gênero, que esteja sendo tagueada de forma correta, que temos representatividade nesses times”. 

Como evitar o viés de gênero na IA? 

Eliminar o preconceito de gênero na IA começa com a priorização da igualdade de gênero desde a concepção dos sistemas de IA. Isso inclui a avaliação rigorosa dos dados para identificar deturpações, a utilização de dados representativos de diversas experiências de gênero e raça, e a formação de equipes de desenvolvimento mais diversas e inclusivas. 

Entretanto, esse não é um trabalho fácil, já que, segundo a executiva, a tecnologia é um espelho da sociedade. “Para evitar o preconceito de gênero na IA, devemos primeiro abordar o preconceito de gênero em nossa sociedade”, afirma. 

De acordo com o Global Gender Gap Report de 2023, apenas 30% das pessoas que trabalham atualmente em IA são mulheres. Este número evidencia a necessidade urgente de promover a diversidade e a inclusão no campo da inteligência artificial de modo intencional, forçando as companhias a investir em capacitação das mulheres, além de aumentar a diversidade no time. 

Para isso, a representante do W20 aconselha os CIOs e líderes de tecnologia a primeiro reconhecerem e medirem os problemas de desigualdade em suas empresas. “A gente não pode atuar sobre um problema que não sabemos a dimensão”, enfatizou.

Ela sugere que as empresas realizem levantamentos para identificar disparidades, como a diferença salarial entre homens e mulheres em funções semelhantes. Segundo a executiva, é fundamental medir e compreender a composição de suas equipes. 

Camila destaca que a primeira estratégia de qualquer CIO deve ser entender os números: quantas mulheres estão em sua equipe técnica? Elas ocupam cargos de liderança ou são apenas executoras? Quem está lidando com os dados e algoritmos? “Se você não for intencional nas suas escolhas, a disparidade continuará”, afirmou. Ela sugere que os CIOs trabalhem com o RH para garantir a contratação e permanência de mulheres em papéis decisores. 

Para a executiva, em uma indústria de IA em rápido avanço, a falta de diversidade de gênero na seleção de dados e na tomada de decisões pode perpetuar uma profunda desigualdade na inteligência artificial nos próximos anos.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

As melhores notícias de tecnologia B2B em primeira mão
Acompanhe todas as novidades diretamente na sua caixa de entrada
Imagem do ícone
Notícias
Imagem do ícone
Revistas
Imagem do ícone
Materiais
Imagem do ícone
Eventos
Imagem do ícone
Marketing
Imagem do ícone
Sustentabilidade
Notícias relacionadas