Skip to main content

A Meta está trabalhando para detectar e rotular imagens geradas por IA de outras empresas, no Facebook, Instagram e Threads, enquanto a empresa pressiona para denunciar pessoas e organizações que desejam ativamente enganar as pessoas.

A empresa já rotula imagens de IA geradas por seus próprios sistemas. O objetivo é que a nova tecnologia, que ainda está sendo construída, crie um impulso para a indústria combater a falsificação da IA. Em um blog escrito pelo executivo sênior Sir Nick Clegg , a Meta afirma que pretende expandir sua rotulagem de falsificações de IA nos próximos meses.

Porém, o professor Soheil Feizi, diretor do Reliable AI Lab da Universidade de Maryland, defende que o sistema poderia ser fácil de contornar.

 

“Eles podem treinar seu detector para sinalizar algumas imagens geradas especificamente por alguns modelos específicos. Mas esses detectores podem ser facilmente contornados por algum processamento leve nas imagens e também podem ter uma alta taxa de falsos positivos. Portanto, não acho que seja possível para uma ampla gama de aplicações”, disse ele à BBC.

 

Meta reconheceu que sua ferramenta não funcionará para áudio e vídeo, apesar de serem esses os meios de comunicação em que se concentra grande parte da preocupação com falsificações de IA. A empresa afirma que, em vez disso, está pedindo aos usuários que rotulem suas próprias postagens de áudio e vídeo, podendo aplicar penalidades se não cumprirem.

Nesta segunda-feira (5), o Conselho de Supervisão da Meta criticou a empresa pela sua política sobre mídia manipulada, chamando-a de incoerente, sem justificativa persuasiva e focada inadequadamente em como o conteúdo foi criado.

O Conselho de Supervisão é financiado pela Meta, mas independente da empresa. A crítica foi em resposta a uma decisão sobre um vídeo do presidente dos EUA, Joe Biden. O vídeo em questão editou imagens existentes do presidente com sua neta. Como não foi manipulado usando inteligência artificial, o vídeo não foi removido. O Conselho concordou que o vídeo não violava as regras atuais da Meta sobre mídia falsa, mas disse que as regras deveriam ser atualizadas.

Além disso, a empresa está desenvolvendo ferramentas para identificar esses tipos de marcadores quando usados ​​por outras empresas, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock em seus geradores de imagens de IA.

 

“À medida que a diferença entre conteúdo humano e sintético fica confusa, as pessoas querem saber onde está a fronteira.Muitas vezes as pessoas encontram pela primeira vez conteúdo gerado por IA e nossos usuários nos disseram que apreciam a transparência em torno desta nova tecnologia. Portanto, é importante ajudarmos as pessoas a saber quando o conteúdo fotorrealista que estão vendo foi criado usando IA”, disse Clegg.

 

O executivo também contou sobre a ideia de colocar rótulos mais notáveis em imagens, vídeos ou áudios criados ou alterados digitalmente, que criem um risco particularmente alto de enganar o público sobre um assunto de importância.

Os deepfakes de IA já entraram no ciclo eleitoral presidencial dos EUA, com chamadas automáticas do que se acredita ter sido um deepfake gerado por IA da voz do presidente dos EUA, Joe Biden, desencorajando os eleitores de comparecer às primárias democratas em New Hampshire.

Nine News na Austrália na semana passada também enfrentou críticas por alterar uma imagem do deputado do partido Victorian Animal Justice, Georgie Purcell, para expor sua barriga e alterar seu peito em uma imagem transmitida no noticiário noturno. A rede culpou a automação do produto Photoshop da Adobe, que possui ferramentas de imagem de IA.

*Foto de capa: mundissima/Shutterstock

 

Acompanhe o Adnews no Instagram e LinkedIn. #WhereTransformationHappens