Uma dessas imagens já foi vista mais de 47 milhões de vezes na rede social X, onde de acordo com os ‘media’ norte-americanos permaneceu durante mais de 17 horas antes de ser excluída, noticiou esta sexta-feira a agência France-Presse (AFP).

Imagens pornográficas falsas [deepfakes, na expressão em inglês] de mulheres famosas, mas também dirigidas a muitas pessoas anónimas, não são novidade.

Mas o desenvolvimento de programas generativos de IA corre o risco de produzir um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

O facto de tais imagens afetarem desta vez Taylor Swift, segunda entre os artistas mais ouvidos do mundo na plataforma Spotify, poderá, no entanto, ajudar a sensibilizar as autoridades para o problema, perante a indignação dos seus milhões de fãs.

“O único ‘ponto positivo’ de isto acontecer com Taylor Swift é que ela pesa o suficiente para que seja aprovada uma lei para eliminar isto”, sublinhou no X Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais.

O X é conhecido por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook.

A Apple e a Google têm o direito de controlar o conteúdo que circula nas aplicações através das regras que impõem aos seus sistemas operativos móveis, mas toleraram esta situação no X, até agora.

Num comunicado de imprensa, o X garantiu que tem “uma política de tolerância zero” relativamente à publicação não consensual de imagens de nudez.

A plataforma declarou que estava “a remover todas as imagens identificadas” da cantora e “a tomar as medidas necessárias contra as contas que as publicaram”.

Representantes da cantora norte-americana ainda não comentaram esta situação.

“O que aconteceu a Taylor Swift não é novo, as mulheres têm sido alvo de imagens falsas sem o seu consentimento durante anos”, lembrou a congressista democrata Yvette Clarke, que apoiou uma lei para combater o fenómeno.

“Com os avanços na IA, criar estas imagens é mais fácil e barato”, lembrou.

Um estudo realizado em 2019 estimou que 96% dos vídeos ‘deepfakes’ eram de natureza pornográfica.

De acordo com a revista Wired, 113 mil desses vídeos foram carregados nos principais sites pornográficos durante os primeiros nove meses de 2023.