Nos últimos anos, a tecnologia tem avançado rapidamente, permitindo a criação de textos, imagens e até mesmo vídeos com uma precisão impressionante devido ao crescimento no uso da IA (Inteligência Artificial). Porém, a parcela de criminosos que utilizam desse tipo de ferramenta para adulterar áudios, imagens e vídeos também tem aumentado.
Prova disso é que, no Brasil, o crescimento do uso de deepfake no último ano foi o maior da América Latina, atingindo impressionantes 830%, conforme aponta o relatório anual Sumsub Identity Fraud Report 2023. Criminosos têm encontrado novas maneiras de explorar essa tecnologia e, agora, se aproveitam da imagem e da voz de figuras públicas, como cortes de podcasts, para transmitir uma falsa legitimidade às suas fraudes, como jogos online, plataformas falsas de empregos home office e, até mesmo, plataformas de aposta.
“Os criminosos gravam os cortes de podcasts e utilizam a IA para criar um áudio com base na voz da celebridade, como se elas estivessem promovendo o formato de golpe e usam as ferramentas de anúncios pagos das redes sociais para promover o cadastro nesses sites fraudulentos”, explica Wanderson Castilho, perito em crimes digitais e CEO da Enetsec. Anitta, Neymar, César Tralli e, recentemente, Whindersson Nunes são alguns dos nomes que tiveram suas imagens adulteradas.
Como saber se um vídeo é deepfake?
Identificar vídeos de deepfake pode ser um desafio, mas, segundo o especialista, algumas dicas podem ajudar a reconhecer quando o vídeo é falso. “Primeiro, observe o movimento dos olhos e piscadas, já que esse tipo de vídeo falso muitas vezes falha em replicar movimentos naturais”, diz Wanderson Castilho.
Segundo ele, as expressões faciais podem parecer rígidas ou não naturais, e a sincronização labial pode não corresponder perfeitamente ao áudio. “É importante também verificar a iluminação, que pode parecer irrealista e a textura da pele, que pode parecer excessivamente lisa ou brilhante”, completa o especialista.
O perito digital também explica que o áudio pode parecer fora de sincronia, formal demais ou num tom acima do que a persona do vídeo costuma se comunicar e, além disso, pede para o usuário se atentar ao movimento do corpo que pode ter inconsistências sutis. “Verificando estas informações, o usuário consegue tornar a sua vida nas redes ainda mais segura”, finaliza.
Por Fernanda Cezar