Fotos pornográficas falsas de Taylor Swift com ‘mão’ da IA estão a causar indignação

The Eras Tour
[Fotografia: VALERIE MACON / AFP]

Taylor Swift é a mais recente vítima de pornografia online falsa gerada por Inteligência Artificial (IA) generativa. A cantora e multimilionária – que vem a Portugal em maio deste ano – tem vindo a ser, nas redes sociais e nos últimos dias, protagonista de imagens que estão a gerar a indignação entre a classe política norte-americana e fãs da cantora.

Uma dessas imagens já foi vista mais de 47 milhões de vezes na rede social X, onde de acordo com os ‘media’ norte-americanos permaneceu durante mais de 17 horas antes de ser excluída, noticiou esta sexta-feira a agência France-Presse (AFP).

Imagens pornográficas falsas [deepfakes, na expressão em inglês] de mulheres famosas, mas também dirigidas a muitas pessoas anónimas, não são novidade. E o facto de as mulheres estarem em maior risco, também não.

O aumento da pornografia gerada por IA e do ‘deepfake porn‘ normaliza o uso da imagem de uma mulher sem seu consentimento”, explicou, em julho de 2023, Sophie Maddocks, pesquisadora da Universidade da Pensilvânia que estuda abusos sexuais baseados em imagens. “Que mensagem estamos a enviar como sociedade sobre o consentimento quando qualquer mulher pode ser virtualmente despida?”, comenta.

As falsificações de fotos e vídeos cada vez mais realistas com base em IA, chamadas deepfakes, normalmente estão associadas a personalidades conhecidas, estão gerar pornografia não consensual e que pode arruinar vidas, alertam os especialistas.

O desenvolvimento de programas generativos de IA corre o risco de produzir um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

Um estudo realizado em 2019 estimou que 96% dos vídeos ‘deepfakes’ eram de natureza pornográfica. De acordo com a revista Wired, 113 mil desses vídeos foram carregados nos principais ‘sites’ pornográficos durante os primeiros nove meses de 2023.

O facto de tais imagens afetarem desta vez Taylor Swift, segunda entre os artistas mais ouvidos do mundo na plataforma Spotify, poderá, no entanto, ajudar a sensibilizar as autoridades para o problema, perante a indignação dos seus milhões de fãs.

“O único ‘ponto positivo’ de isto acontecer com Taylor Swift é que ela pesa o suficiente para que seja aprovada uma lei para eliminar isto“, sublinhou no X Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais.

“Mulheres têm sido alvo de imagens falsas
sem o seu consentimento durante anos”

O X é conhecido por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook. A Apple e a Google têm o direito de controlar o conteúdo que circula nas aplicações através das regras que impõem aos seus sistemas operativos móveis, mas toleraram esta situação no X, até agora.

Num comunicado de imprensa, o X garantiu que tem “uma política de tolerância zero” relativamente à publicação não consensual de imagens de nudez. A plataforma declarou que estava “a remover todas as imagens identificadas” da cantora e “a tomar as medidas necessárias contra as contas que as publicaram”.

“O que aconteceu a Taylor Swift não é novo, as mulheres têm sido alvo de imagens falsas sem o seu consentimento durante anos“, lembrou a congressista democrata Yvette Clarke, que apoiou uma lei para combater o fenómeno. “Com os avanços na IA, criar estas imagens é mais fácil e barato”, lembrou.

Nos Estados Unidos, quatro estados, incluindo Califórnia e Virgínia, proibiram a distribuição de pornografia falsa, mas as vítimas geralmente têm poucos recursos legais se os perpetradores estiverem fora dessas jurisdições.

Em maio, um legislador dos EUA apresentou a Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal compartilhar pornografia falsa sem consentimento.

Com Lusa