Prime Time

seg - sex

Apresentação

Ao vivo

A seguir

    Criminosos manipulam imagens de apresentador da CNN para promover aplicativo falso

    Vídeos falsos que circulam nas redes sociais mostram apresentador Gustavo Uribe divulgando aplicativo de apostas

    Criminosos manipulam imagens de apresentador da CNN para promover anúncios falsos
    Criminosos manipulam imagens de apresentador da CNN para promover anúncios falsos Reprodução

    Da CNN

    São Paulo

    A CNN é alvo de criminosos na veiculação de vídeos que usam inteligência artificial para manipular imagens da TV e espalhar anúncios falsos.

    Em vídeos que circulam nas redes sociais, os golpistas manipulam imagem e voz do apresentador Gustavo Uribe para fazer parecer que ele divulga um suposto aplicativo de apostas promovido pelo jogador Neymar.

    A mesma manipulação criminosa já foi feita com a imagem das apresentadoras Elisa Veeck e Tainá Falcão.

    Os vídeos também mostram imagens manipuladas do jogador, em que ele aparece dizendo que pretende distribuir milhões de reais aos jogadores.

    A CNN reitera que os vídeos são falsos e que não promove esse tipo de propaganda.

    A TV Globo também foi alvo de golpes semelhantes, conforme reportagem que foi ao ar no domingo (17), no Fantástico.

    A emissora diz que William Bonner, apresentador do Jornal Nacional, é uma vítima recorrente desses grupos de criminosos, assim como Luciano Huck, Drauzio Varella, Marcos Mion, Sandra Annenberg e Ana Maria Braga.

    No caso envolvendo Mion, os golpistas recriaram imagem e voz do apresentador para fazer parecer que ele defendia um produto ligado à cura do autismo, o que não existe.

    Deepfake

    O uso da técnica conhecida como deepfake — que usa inteligência artificial para copiar vozes e rostos —, tem ganhado espaço entre produtores de desinformação.

    A ferramenta permite que criminosos fundam, combinem, substituam ou sobreponham áudios e imagens para criar arquivos falsos, em que pessoas podem ser colocadas em qualquer situação, dizendo frases nunca ditas ou assumindo atitudes jamais tomadas.

    São inúmeras as possibilidades: troca de rostos, clonagem de voz, sincronização labial a uma faixa de áudio diferente da original, entre outras. A técnica distorce comumente a percepção a respeito de um indivíduo em uma determinada situação.

    Para criar esse tipo de material, é preciso ter acesso a arquivos verdadeiros — fotos, vídeos ou áudios — da pessoa-alvo da manipulação, que servem para alimentar o sistema da inteligência artificial.

    Quanto mais material à disposição, maior é a chance de um resultado convincente. Isso ocorre porque a inteligência artificial aprende com o conteúdo-modelo fornecido e, com isso, consegue reproduzir padrões, como movimentos, expressões, vozes e outras características do indivíduo.

    Como o próprio termo “fake” sugere, o deepfake é feito para enganar. As técnicas de inteligência artificial fazem com que o vídeo pareça real, como se fosse um registro fidedigno.