Deepfakes estão tentando mudar o curso da guerra na Ucrânia

Especialistas se preocupam com o potencial de espalhar mentiras e caos por meio de deepfakes à medida que elas se tornam cada vez mais realistas

AI Deepfake é uma preocupação para especialistas
AI Deepfake é uma preocupação para especialistas Getty Images

Rachel Metzda CNN

Ouvir notícia

Na terceira semana da guerra da Rússia na Ucrânia, Volodymyr Zelensky apareceu em um vídeo, vestido com uma camisa verde escura, falando devagar e deliberadamente enquanto estava atrás de um pódio presidencial branco com o brasão de seu país. Exceto pela cabeça, o corpo do presidente ucraniano mal se movia enquanto ele falava. Sua voz soava distorcida e quase rouca quando ele parecia dizer aos ucranianos que se rendessem à Rússia.

“Peço que deponham suas armas e voltem para suas famílias”, ele parecia dizer em ucraniano no clipe, que foi rapidamente identificado como um deepfake. “Não vale a pena morrer por esta guerra. Sugiro que continue vivendo, e eu farei o mesmo.”

Cinco anos atrás, ninguém tinha ouvido falar de deepfakes, os arquivos de vídeo e áudio de aparência persuasiva, mas falsos, feitos com a ajuda de inteligência artificial.

Agora, eles estão sendo usados ​​para impactar o curso de uma guerra. Além do vídeo falso de Zelesnky, que se tornou viral na semana passada, havia outro vídeo deepfake amplamente divulgado retratando o presidente russo, Vladimir Putin, supostamente declarando paz na guerra da Ucrânia.

Especialistas em desinformação e autenticação de conteúdo se preocupam há anos com o potencial de espalhar mentiras e caos por meio de deepfakes, principalmente à medida que se tornam cada vez mais realistas.

Em geral, as deepfakes melhoraram imensamente em um período de tempo relativamente curto. Vídeos virais de um falso Tom Cruise fazendo cara ou coroa e fazendo covers de músicas da Dave Matthews Band no ano passado, por exemplo, mostraram como os deepfakes podem parecer convincentemente reais.

Nenhum dos vídeos recentes de Zelensky ou Putin chegou perto dos altos valores de produção do TikTok Tom Cruise (eles eram visivelmente de baixa resolução, por exemplo, o que é uma tática comum para esconder falhas). Mas os especialistas ainda os consideram perigosos.

Isso porque eles mostram a velocidade de iluminação com que a desinformação de alta tecnologia agora pode se espalhar pelo mundo.

À medida que se tornam cada vez mais comuns, os vídeos deepfake tornam mais difícil distinguir os fatos da ficção online, e ainda mais durante uma guerra que está se desenrolando online e repleta de desinformação. Mesmo uma deepfake ruim corre o risco de turvar ainda mais as águas.

“Uma vez que essa linha seja corroída, a verdade em si não existirá”, disse Wael Abd-Almageed, professor associado de pesquisa da Universidade do Sul da Califórnia e diretor fundador do Laboratório de Inteligência Visual e Análise Multimídia. “Se você vê alguma coisa e não consegue mais acreditar, então tudo se torna falso. Não é como se tudo se tornar verdade. É só que vamos perder a confiança em tudo e em tudo.”

Deepfakes durante a guerra

Em 2019, havia preocupações de que os deepfakes influenciassem as eleições presidenciais dos EUA em 2020, incluindo um aviso na época de Dan Coats, então diretor de inteligência nacional dos EUA. Mas isso não aconteceu.

Siwei Lyu, diretor do laboratório de visão computacional e aprendizado de máquina da Universidade de Albany, acha que isso ocorreu porque a tecnologia “ainda não estava lá”.

Simplesmente não foi fácil fazer um deepfake bom, o que requer suavizar sinais óbvios de que um vídeo foi adulterado (como tremores visuais estranhos ao redor do quadro do rosto de uma pessoa) e fazer com que pareça a pessoa no o vídeo estava dizendo o que eles pareciam estar dizendo (por meio de uma versão de inteligência artificial de sua voz real ou de um dublador convincente).

Agora, é mais fácil fazer deepfakes melhores, mas talvez mais importante, as circunstâncias de seu uso são diferentes. O fato de que agora estão sendo usados ​​na tentativa de influenciar as pessoas durante uma guerra é especialmente pernicioso, disseram especialistas à CNN Business, simplesmente porque a confusão que eles semeiam pode ser perigosa.

Em circunstâncias normais, disse Lyu, os deepfakes podem não ter muito impacto além de atrair interesse e ganhar força online. “Mas em situações críticas, durante uma guerra ou um desastre nacional, quando as pessoas realmente não conseguem pensar muito racionalmente e têm apenas um período de atenção muito curto, e veem algo assim, é aí que se torna um problema”, adicionou.

Acabar com a desinformação em geral tornou-se mais complexo durante a guerra na Ucrânia. A invasão da Rússia ao país foi acompanhada por um dilúvio de informações em tempo real atingindo plataformas sociais como Twitter, Facebook, Instagram e TikTok. Muito disso é real, mas alguns são falsos ou enganosos.

A natureza visual do que está sendo compartilhado – juntamente com o quão emocional e visceral muitas vezes é – pode tornar difícil distinguir rapidamente o que é real do que é falso.

Nina Schick, autora de “Deepfakes: The Coming Infocalypse”, vê deepfakes como os de Zelensky e Putin como sinais de um problema muito maior de desinformação online, que ela acha que as empresas de mídia social não estão fazendo o suficiente para resolver. Ela argumentou que as respostas de empresas como o Facebook, que rapidamente disseram ter removido o vídeo de Zelensky, são muitas vezes um “tapa buraco”.

“Você está falando de um vídeo”, disse ela. O problema maior permanece.

“Nada realmente supera os olhos humanos”

À medida que os deepfakes ficam melhores, pesquisadores e empresas estão tentando acompanhar as ferramentas para identificá-los.

Abd-Almageed e Lyu usam algoritmos para detectar deepfakes. A solução de Lyu, o alegremente chamado DeepFake-o-meter, permite que qualquer pessoa envie um vídeo para verificar sua autenticidade, embora ele observe que pode levar algumas horas para obter resultados. E algumas empresas, como o provedor de software de segurança cibernética Zemana, também estão trabalhando em seu próprio software.

No entanto, existem problemas com a detecção automatizada, como o fato de ficar mais complicado à medida que os deepfakes melhoram. Em 2018, por exemplo, Lyu desenvolveu uma maneira de identificar vídeos deepfake rastreando inconsistências na maneira como a pessoa no vídeo piscava; menos de um mês depois, alguém gerou um deepfake com piscadas realistas.

Lyu acredita que as pessoas acabarão sendo melhores em parar esses vídeos do que software. Ele eventualmente gostaria de ver (e está interessado em ajudar) uma espécie de programa caçadores de deepfake que ofereça recompensas, onde as pessoas são pagas para descobri-las online. (Nos Estados Unidos, também houve alguma legislação para resolver o problema, como uma lei da Califórnia aprovada em 2019 que proíbe a distribuição de vídeo ou áudio enganoso de candidatos políticos dentro de 60 dias de uma eleição.)

“Vamos ver isso muito mais, e confiar em empresas de plataforma como Google, Facebook, Twitter provavelmente não é suficiente”, disse ele. “Nada realmente supera os olhos humanos.”

 

Este conteúdo foi criado originalmente em inglês.

versão original

Mais Recentes da CNN