BrasilDestaque

Deepfake: crime usando imagem e voz de famosos está cada vez mais comum. Entenda!

Os criminosos estão investindo a cada dia mais a forma de enganar e dar golpes nas pessoas. Cura para o autismo oferecida por Marcos Mion e gotas milagrosas  indicadas por Drauzio Varella foram algumas das mentiras soltadas nas redes sociais com o auxílio de Inteligência Artificial, de acordo com informações do UOL.

Uma reportagem do Fantástico do último domingo (17),  exibiu que golpistas fazem deepfake, arquivos mudando a voz, imagem ou vídeo de famosos com a ajuda da IA. No caso do apresentador do Caldeirão, pegaram um trecho que ele falava do autismo do seu filho e mudaram para que ele dissesse sobre a cura da síndrome de  espectro.

No golpe envolvendo o famoso médico Drauzio, em um vídeo falso ele recomendava “gotinhas milagrosas de colágeno.” Isso é um problema sério, já que as redes nem sempre excluem rapidamente, causando prejuízos para as celebridades envolvidas e para as pessoas que acreditam e acabam adquirindo o produto falso.

Para evitar esse grande transtorno, a industria comenta formas de criar uma espécie de marca d’água ou sinalização de que o conteúdo é deepfake.

Como os deepfakes são feitos

A forma como manipular as informações é feita de uma maneira muito fácil. Na internet é possível encontrar vários serviços, como o Voicify e Cover.ai, que permitem treinar uma voz e depois fazer que elas digam um texto específico. Quanto mais o áudio estiver limpo, mais real vai parecer, não sendo difícil achar de famosos que participam de podcasts, por exemplo.

Em se tratando dos golpes, o que é dito é retirado do contexto e se sobrepõe ao áudio com as imagens em vídeo. Se a pessoa reparar com cuidado é notável as falhas de sincronia ou atraso na voz.

Uma pessoa falar um texto com a ajuda da Inteligência Artificial não é um problema, mas sim quando é tirada de contexto para vender ou tentar empurrar algum tipo de produto para os internautas, podendo ser enquadrado como falsidade ideológica.

O mesmo pode ser feito com vídeos das pessoas. Mas para o trabalhar sair bem feito, é preciso reunir muitas imagens de uma vítima, e em alguns casos, exige um computador potente para realizar o processamento.

Em 2019 o humorista Bruno Sartori se tornou reconhecido por fazer paródias de deepfake com famosos, falou que pode levar até três dias para treinar um rosto, antes era quase 30 dias.

Como não cair em golpes envolvendo deepfake

– É necessário se atentar a movimentos esquisitos e ao tamanho desproporcional do rosto;

– Vídeos com imagens sem qualidade é mais fácil de perceber que são falsos;

– Se o vídeo tiver áudio, é necessário prestar atenção quanto a sincronia do som com a boca;

– Se notar algo estranho no anúncio, tente assistir em tela cheia, pois é mais fácil perceber manipulação;

– Pesquise a procedência da informação repassada na gravação. Procure se saiu em algum site com credibilidade.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *