Skip to main content

Os avanços da inteligência artificial têm tornado cada vez mais difícil diferenciar o que é real e falso. Essa questão distópica dos tempos modernos vem gerando uma alta proliferação de imagens sexualmente explícitas de mulheres e meninas na internet.

Recentemente, o X (Twitter) passou por uma série de dificuldades para combater a disseminação de imagens explícitas falsas da estrela do pop Taylor Swift, levando a rede social de Elon Musk a bloquear temporariamente os usuários de buscarem pelas imagens da cantora estadunidense na plataforma.

Diante disso, o Conselho de Supervisão da Meta, empresa dona do Instagram, Facebook, WhatsApp e Threads, está reavaliando como as plataformas estão lidando com dois casos em especifico. O primeiro é de uma imagem gerada por IA de uma mulher nua, semelhante a uma figura pública da Índia, postada em uma conta no Instagram que compartilha somente imagens falsas de mulheres indianas. Já o segundo se trata de um grupo do Facebook dedicado a compartilhar criações de IA e mostrava uma imagem falsa de uma mulher nua, parecida com uma figura pública estadunidense, com um homem tocando seu peito.

A princípio, a Meta removeu somente a imagem da mulher estadunidense por violar a política de bullying e assédio, que proíbe “photoshops ou desenhos sexualizados depreciativos”, mas deixou a imagem com a mulher indiana, alterando essa decisão somente após a intervenção do conselho.

Em uma declaração oficial, a Meta reconheceu os casos e se comprometeu a implementar as decisões do conselho.

Enquanto a empresa de Mark Zuckerberg segue tendo problemas internos quanto ao bloqueio dessas imagens depreciativas, alguns líderes da indústria já estão apelando por uma legislação que criminalize a criação de deepfakes (termo designado para esse tipo de montagem) prejudiciais e que exija que as empresas de tecnologia impeçam tais usos de seus produtos.

 

*Com informações do Reuters

Acompanhe o Adnews no Instagram e LinkedIn. #WhereTransformationHappens