Usados para objetificar o corpo feminino, vídeos baseados em deepfake são usados como "arma contra as mulheres".
A Deeptrace, empresa de segurança cibernética baseada na Holanda, publicou um relatório preocupante sobre a tecnologia que cria o já popular deepfake.
O deepfake, que se apropria de machine learning e inteligência artificial para criar vídeos, pode “simular” o rosto de pessoas em vídeos. A tecnologia também pode ser aplicada na voz, que recentemente resultou em um roubo de quase R$ 600 mil.
Mas, além dos memes, há uma boa (e real) preocupação a respeito dos vídeos de deepfake. Segundo o estudo da Deeptrace, 96% dos vídeos de deepfake publicados na internet são relacionados à pornografia.
Destes vídeos, já foram contabilizadas 134 milhões de visualizações. Desde dezembro de 2018, segundo a empresa, foram encontrados mais de 14.678 vídeos online. No mesmo período do ano anterior, o número era de 7.964, resultando num aumento de 100% ano-a-ano.
A quantidade elevada de visualizações foi contabilizada a partir de quatro dos principais sites de pornografia deepfake. Sites populares de pornografia têm em sua base, de acordo com a pesquisa, 802 vídeos de deepfake.

O mais preocupante, entretanto é que todos os vídeos pornográficos tem como principal objeto a imagem feminina. Para Danielle Citron, professora de direito da Universidade de Boston, os deepfakes são usados como arma contra as mulheres. Citron também é autora do livro ‘Hate Crimes in Cyberspace‘.
Ela relaciona que a tecnologia “está sendo usada como arma contra as mulheres, inserindo seus rostos no pornô”. “É aterrorizante, embaraçoso, humilhante e silencioso”, diz Citron.
A grande preocupação não é somente com o fato da apropriação de imagem de uma mulher. “Os vídeos de sexo de deepfake dizem às pessoas que seus corpos não são seus”, cita a professora. Entre outros, os danos remetem à dificuldade do indivíduo permanecer online, ou até mesmo para conseguir ou manter um emprego.
Também é importante lembrar que vítimas de vídeos deepfake podem não se sentir seguras.
O relatório cita o DeeNude, um programa/app que “tira a roupa das mulheres” em 30 segundos. Ele foi lançado para Windows e Linux em junho de 2019. O app cobrava US$ 50 para remover a marca d’água que indicava se tratar de um conteúdo falso nas imagens.
A jornalista Samatha Cole publicou na Motherboard/Vice, quatro dias após o lançamento do programa, uma matéria sobre a objetificação do corpo feminino causada por ele. Em menos de 24 horas após a publicação, o site recebeu cerca de 545 mil visitas e, posteriormente, o DeepNude foi retirado do ar.
Este, entretanto, é apenas um exemplo de aplicação do deepfake. Em 2017, Cole publicou o que seria o início de uma era de deepfakes; a tecnologia já era usada para criar conteúdo pornográfico.