Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Criminosos manipulam imagens de apresentadoras da CNN para promover anúncios falsos

    Vídeos falsos que circulam nas redes sociais mostram apresentadoras Elisa Veeck e Tainá Falcão divulgando aplicativo de apostas

    Da CNN

    A CNN está sendo alvo de criminosos na veiculação de vídeos que usam inteligência artificial para manipular imagens da TV e espalhar anúncios falsos.

    Em vídeos que circulam nas redes sociais, os golpistas manipulam imagem e voz das apresentadoras Elisa Veeck e Tainá Falcão, para fazer parecer que elas divulgam um suposto aplicativo de apostas promovido pelo jogador Neymar.

    Os vídeos também mostram imagens manipuladas do jogador, em que ele aparece dizendo que pretende distribuir milhões de reais aos jogadores.

    A CNN reitera que os vídeos são falsos e que não promove esse tipo de propaganda.

    Recentemente, a TV Globo também foi alvo de golpes semelhantes, conforme reportagem que foi ao ar no último domingo (17), no Fantástico.

    A emissora diz que William Bonner, apresentador do Jornal Nacional, é uma vítima recorrente desses grupos de criminosos, assim como Luciano Huck, Drauzio Varella, Marcos Mion, Sandra Annenberg e Ana Maria Braga.

    No caso envolvendo Mion, os golpistas recriaram imagem e voz do apresentador para fazer parecer que ele defendia um produto ligado à cura do autismo, o que não existe.

    Deepfake

    O uso da técnica conhecida como deepfake — que usa inteligência artificial para copiar vozes e rostos —, tem ganhado espaço entre produtores de desinformação.

    A ferramenta permite que criminosos fundam, combinem, substituam ou sobreponham áudios e imagens para criar arquivos falsos, em que pessoas podem ser colocadas em qualquer situação, dizendo frases nunca ditas ou assumindo atitudes jamais tomadas.

    São inúmeras as possibilidades: troca de rostos, clonagem de voz, sincronização labial a uma faixa de áudio diferente da original, entre outras. A técnica distorce comumente a percepção a respeito de um indivíduo em uma determinada situação.

    Para criar esse tipo de material, é preciso ter acesso a arquivos verdadeiros — fotos, vídeos ou áudios — da pessoa-alvo da manipulação, que servem para alimentar o sistema da inteligência artificial.

    Quanto mais material à disposição, maior é a chance de um resultado convincente. Isso ocorre porque a inteligência artificial aprende com o conteúdo-modelo fornecido e, com isso, consegue reproduzir padrões, como movimentos, expressões, vozes e outras características do indivíduo.

    Como o próprio termo “fake” sugere, o deepfake é feito para enganar. As técnicas de inteligência artificial fazem com que o vídeo pareça real, como se fosse um registro fidedigno.