Pornografia falsa gerada por IA está a ‘atacar’ e ‘agredir’ mulheres

pexels-moose-photos-1036642
[Fotografia: Pexels/Moose Photos]

As mulheres estão a ser o principal alvo das ferramentas e aplicações de IA, amplamente disponíveis gratuitamente e sem a necessidade de conhecimento técnico, que permitem aos utilizadores remover digitalmente as roupas das fotos ou inserir os rostos em vídeos sexualmente explícitos.

As falsificações de fotos e vídeos cada vez mais realistas com base em IA, chamadas deepfakes, normalmente estão associadas a personalidades conhecidas, estão gerar pornografia não consensual e que pode arruinar vidas, alertam os especialistas.

O aumento da pornografia gerada por IA e do ‘deepfake porn‘ normaliza o uso da imagem de uma mulher sem seu consentimento”, explica Sophie Maddocks, pesquisadora da Universidade da Pensilvânia que estuda abusos sexuais baseados em imagens. “Que mensagem estamos a enviar como sociedade sobre o consentimento quando qualquer mulher pode ser virtualmente despida?”, comenta.

Num vídeo dramático, uma streamer americana conhecida como QTCinderella lamentou a “exploração e objetificação constantes” das mulheres quando se tornou vítima do deepfake porn. Ela foi assediada por pessoas que enviavam cópias das manipulações em que ela aparecia. O escândalo rebentou em janeiro durante uma transmissão ao vivo feita pelo também streamer Brandon Ewing, que estava a olhar para um site que continha imagens sexuais falsas de várias mulheres, incluindo QTCinderella.

“Não é tão simples como ‘só’ ser violentada. É muito mais do que isso”, escreveu a criadora de conteúdo no Twitter, agora chamado X, acrescentando que a experiência a “arruinou”.

A proliferação de deepfakes destaca a ameaça da desinformação habilitada por IA, que pode prejudicar a reputação e provocar intimidação ou assédio. Embora celebridades como Taylor Swift e Emma Watson tenham sido vítimas de pornografia falsa, mulheres anónimas também são alvo desses ataques. Atualmente, cerca de 96% dos vídeos deepfake online são pornografia não consensual, e a maioria deles apresenta mulheres, de acordo com um estudo de 2019 realizado pela empresa de IA Sensity.

A experiência do “ato de fantasia sexual, que costumava ser privado e ocorrer dentro da mente de alguém, agora está a ser transferida para a tecnologia e para os criadores de conteúdo no mundo real”, disse Roberta Duffield, diretora de inteligência da Blackbird.AI.

Aumento da extorsão sexual

Os avanços tecnológicos levaram a uma “indústria artesanal em expansão” em torno do porno impulsionado pela IA, na qual muitos criadores de deepfakes aceitam pedidos para gerar conteúdo com uma pessoa escolhida pelo cliente. O FBI emitiu recentemente um alerta sobre “esquemas de sextortion”, através dos quais eram usadas fotos e vídeos capturadas das redes sociais para criar material falso de “temática sexual” e usado para chantagear a pessoa afetada.

Nos Estados Unidos, quatro estados, incluindo Califórnia e Virgínia, proibiram a distribuição de pornografia falsa, mas as vítimas geralmente têm poucos recursos legais se os perpetradores estiverem fora dessas jurisdições.

Em maio, um legislador dos EUA apresentou a Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal compartilhar pornografia falsa sem consentimento.

com AFP