Skip to main content

Independente do que poderiam estar relacionados, os vídeos com conteúdo “impróprio” foram removidos pela poderosa inteligência artificial combinada com moderadores humanos os removeu na velocidade da luz, 94,2% antes que alguém os visse. Os sistemas que pesquisaram por “conteúdo violador” removeram 17 milhões dos vídeos removidos automaticamente.

E outras empresas de mídia social compartilham uma história semelhante – milhares de horas de conteúdo retirados todos os dias. Agora, alguns estão perguntando se a Big Tech, ao remover tanto conteúdo, também está removendo imagens de crimes de guerra na Ucrânia.

O conteúdo gráfico e a guerra

O TikTok já era muito popular em todo o mundo antes da decisão do presidente russo Vladimir Putin de invadir a Ucrânia – mas a guerra foi um momento de amadurecimento para a plataforma. Vídeos usando várias hashtags ucranianas tiveram bilhões de visualizações.

Mas os ucranianos que enviam vídeos do solo podem estar gerando mais do que “curtidas”. Eles podem muito bem estar carregando uma peça em um quebra-cabeça de evidências que um dia serão usadas para processar crimes de guerra.

Mas eles também podem estar quebrando as regras rígidas do TikTok e de outras empresas de mídia social sobre conteúdo gráfico. “O TikTok é uma plataforma que celebra a criatividade, mas não o choque ou a violência”, dizem as regras do TikTok.

Não permitimos conteúdo que seja gratuitamente chocante, gráfico, sádico ou macabro“. E alguns, mas não todos, conteúdos que retratam possíveis atrocidades podem se enquadrar nessa categoria.

‘Grande questão’

Os pesquisadores não sabem ao certo quanto conteúdo gerado por usuários ucranianos Tiktok e outras empresas de mídia social como Meta, Twitter e YouTube estão derrubando. “O TikTok não é tão transparente quanto algumas das outras empresas – e nenhuma delas é muito transparente”, diz o diretor do programa Witness, Sam Gregory.

“Você não sabe o que não era visível e retirado porque era gráfico, mas potencialmente uma evidência. Há um grande problema aqui.”

Esta não é a primeira vez que grandes empresas de mídia social tiveram que lidar com evidências de possíveis crimes de guerra. O conflito na Síria trouxe problemas semelhantes. A Human Rights Watch pede há anos um sistema centralizado de uploads de zonas de conflito, sem sucesso.

No momento, isso não existe“, diz o pesquisador sênior de conflitos Belkis Wille. Ela descreve o processo aleatório e complicado que os promotores têm que seguir para obter provas removidas das mídias sociais. Nas palavras de Wille:

“As autoridades podem escrever para as empresas de mídia social, ou pedir uma intimação ou ordem judicial… mas do jeito que o processo funciona agora, ninguém tem uma imagem muito boa de onde está todo esse conteúdo”.

E isso é um problema real para os investigadores. Mesmo antes da Ucrânia, aqueles que tentavam documentar atrocidades destacaram como o aumento da moderação estava tendo um efeito prejudicial na coleta de evidências.

“Esse ritmo de detecção significa que os atores de direitos humanos estão perdendo cada vez mais a corrida para identificar e preservar informações“, disse um relatório sobre evidências digitais de atrocidades, do Centro de Direitos Humanos, da Berkeley School of Law.

O relatório pediu “armários digitais” – locais onde o conteúdo pode ser armazenado e revisado não apenas por empresas de mídia social, mas por organizações não governamentais (ONGs) e especialistas jurídicos.

Mas muitas empresas de mídia social não querem convidar pessoas de fora para seus processos de moderação, deixando os pesquisadores com um enigma rumsfeldiano – eles geralmente não sabem o que está sendo retirado, então como podem saber o que solicitar ou intimar?

Estes são desconhecidos desconhecidos. Mas nem todas as plataformas de mídia social têm as mesmas políticas quando se trata de conteúdo gráfico. O Telegram tem sido extremamente importante no compartilhamento de vídeos do solo na Ucrânia. Também acontece de ter uma política extremamente leve sobre moderação. Vídeos que seriam removidos do Twitter ou Facebook permanecem no Telegram.

E essa não é a única razão pela qual a plataforma está ajudando os investigadores. “Eu diria que alguns dos conteúdos de fotos e vídeos mais valiosos que nós, como organização, recebemos são do Telegram“, diz Wille.

E há outro benefício importante: empresas de mídia social como Facebook e Twitter retiram automaticamente o conteúdo dos metadados de uma foto ou vídeo – uma espécie de identificação digital, revelando onde e quando o conteúdo foi capturado e crucial para os investigadores. “Um benefício que descobrimos é que os metadados não são removidos no Telegram“, diz Wille.

A proteção dos metadados, desde o momento em que uma ação foi capturada até o momento em que é apresentada no tribunal, às vezes é chamada de “cadeia de custódia”.

Wendy Betts, diretora do Eye Witness, um projeto da International Bar Association focado na coleta de atrocidades de direitos humanos verificáveis, incentiva as pessoas a filmar possíveis crimes de guerra em seu aplicativo, Eye Witness to Atrocities , para preservar as informações da melhor maneira possível. forma possível para uso em tribunal. Nas palavras dela:

“À medida que a filmagem passa do fotógrafo para o investigador e para o advogado… se algum elo dessa cadeia estiver faltando, essa filmagem será vista como mais suspeita, porque mudanças podem ter sido feitas durante esse intervalo”.

Mas todas essas soluções parecem fragmentadas e insatisfatórias. Sem um armário digital que todas as empresas de mídia social usam, sem um lugar onde tudo isso está sendo armazenado, evidências cruciais podem estar caindo pelas rachaduras.

Respostas diferentes das empresas

Em alguns casos, não está claro que as empresas de mídia social estejam armazenando ou documentando esses vídeos. A BBC News perguntou ao TikTok, Google, Meta e Twitter sobre suas políticas nessa área.

O TikTok encaminhou suas políticas para proteger seus usuários durante a guerra na Ucrânia, mas não respondeu a nenhuma das perguntas feitas pelo site internacional. “Não temos mais para compartilhar além dessas informações agora“, disse um representante. O Twitter e Google também não responderam. Apenas Meta deu uma resposta personalizada.

Nas palavras de um representante sobre a remoção de vídeos que poderiam estar relacionados à guerra:

“Só removeremos esse tipo de conteúdo quando glorificar a violência ou celebrar o sofrimento de outras pessoas ou quando o conteúdo for extremamente explícito ou violento – por exemplo, imagens de vídeo de desmembramento. Em relação especificamente à guerra na Ucrânia, estamos explorando maneiras de preservar esse tipo e outros tipos de conteúdo quando o removermos”.

As respostas muito diferentes dessas quatro grandes empresas de tecnologia contam sua própria história. Não há sistema, não há política, todos compartilham. E até que haja, evidências cruciais podem estar sendo perdidas e esquecidas.

Essa matéria é uma tradução da escrita por James Clayton para a BBC News.

Quer saber mais? Não deixe de seguir o ADNEWS nas redes sociais e fique por dentro de tudo!

Leave a Reply