Deepfakes são vídeos e outros tipos de mídia criados com a ajuda de técnicas avançadas de inteligência artificial. O método pode ser usados para ações criminosas, como disseminação de pornô de vingança, desinformação e fake news, e até mesmo golpes milionários em empresas e pessoas comuns.

Em virtude de novas tecnologias que o aproximam da realidade, a deepfake está cada vez mais popular. Por isso, tende a se tornar mais convincente e poderoso, e materiais que utilizam esse recurso podem impactar o cotidiano de forma frequente nos próximos anos. Abaixo, discutimos cinco exemplos de ações criminosas que já usam, ou há chances de começar a usar, a tecnologia deepfake.

Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo

1. Pornô de vingança

Um dos usos mais evidentes atualmente da deepfake é a criação de material pornográfico, o que é considerado crime. Em um caso, especialistas da Sensity, consultoria de segurança especializada em crimes usando IA, detectaram um robô do Telegram que recebia fotos de mulheres e devolvia aos remetentes imagens mostrando como elas ficariam nuas. Em outras situações, técnicas parecidas são usadas para despir e mostrar menores em atos sexuais, ou mesmo criar vídeos pornográficos de vingança, em que ex-parceiros acabam expondo as vítimas em clipes falsos.

Em outro tipo de uso da inteligência artificial para pornografia, há a criação de vídeos falsos de celebridades em atos sexuais. Segundo estimativas da Senity, pelo menos 96% dos vídeos deepfake disponíveis na Internet envolvem pornografia e exploram a imagem de vítimas obtidas de forma não consensual.

Veja também: Como saber se uma foto é fake? Veja dicas para descobrir

2. Desinformação

O uso do deepfake como forma de influenciar a opinião pública pode ter graves consequências, porque é sempre muito difícil determinar, em um primeiro momento, se o material é real ou não. Um dos exemplos mais conhecidos é um vídeo do ex-presidente norte-americano Barack Obama em que ele fala sobre o filme Pantera Negra e critica Donald Trump. Embora pareça um discurso normal, a filmagem é falsa e o conteúdo da gravação nunca foi dito por Obama. Aliás, ele foi criado em um exercício idealizado pelo cineasta Jordan Peele para mostrar justamente o quanto essa tecnologia é perigosa.

Além de falsificar um discurso, a técnica pode ser usada para criar um vídeo falso de bastidores, em que um agente público faz uma confissão comprometedora falsa, ou ainda matérias de divulgação que espalham notícias falsas.

3. Ataques de engenharia social

Outro cenário preocupante em torno da deepfake são usos em que algum tipo de material é criado para induzir a vítima a tomar uma decisão que pode colocá-la em risco. Uma situação possível seria alguém criar um vídeo falso de um colega de trabalho. Em uma reunião online, a exibição dessa filmagem poderia ser usada para o criminoso coletar dados importantes da empresa.

Situações mais pessoais também podem ocorrer e ser tão preocupantes quanto. Um vídeo falso poderia induzir você a achar que um familiar está em uma emergência e precisa, por exemplo, dos seus dados bancários para fazer um saque, ou pagar uma despesa com cartão de crédito. Episódios assim já estão acontecendo: em agosto de 2019, uma empresa britânica de energia do Reino Unido sofreu prejuízo de R$ 1,3 milhão em um golpe que envolveu um vídeo deepfake de um diretor da companhia.

4. Criação de pessoas virtuais

Outra aplicação da tecnologia está na criação de identidades falsas virtuais. Nesse cenário, a deepfake é usada para criar pessoas que nunca existiram. Então,

... esses perfis e personagens são utilizados em ações que vão desde a criação de bots em redes sociais a golpes e fraudes.

Com aplicações mais sofisticadas das tecnologias de deepfake, criminosos poderiam criar essas identidades falsas para fraudes, como a abertura de contas bancárias e empréstimos. Outro exemplo de ação criminosa com esse viés é o risco de que a tecnologia seja usada para forjar a biometria de uma pessoa real, permitindo, por exemplo, que os criminosos tomem controle de uma conta bancária.

5. Criação de provas falsas

Outro exemplo de aplicação preocupante do deepfake está no risco de que criminosos usem a tecnologia para forjar provas em imagem, som e vídeo. Suponha que um crime está em investigação e a polícia tem razões suficientes para acreditar que já identificou o culpado. Um material deepfake, como um vídeo com aparência caseira, poderia ser suficiente para dar ao criminoso um álibi, ou ao menos servir de evidência para que a polícia continue as investigações. Mesmo um vídeo de uma suposta testemunha pode ser falso, mostrando que um inocente cometeu um crime.

Especialistas discutem formas de identificar as falsificações e, além disso, alertam para a importância de ter em mente que evidências que podem ser forjadas. Se a verificação da legitimidade for inconclusiva, é preciso que não sejam consideradas com tanta ênfase nos tribunais. Entretanto, pesquisadores também alertam que, muitas vezes, basta que a evidência forjada exista para criar comoção e desviar o curso de investigações, alterando até mesmo a ação da justiça.

Como identificar um vídeo deepfake

Especialistas dão algumas dicas que podem ajudar você a notar se um vídeo foi manipulado ou criado do zero usando algumas técnicas. Procure observar movimentos estranhos dos olhos e da face, indicando que a transição de quadros do vídeo foi manipulada de alguma forma. Outra sugestão são expressões faciais que não condizem com as emoções ou situação da gravação.

Outro fator importante é o cabelo. As tecnologias de AI têm dificuldade em simular o comportamento natural dos fios de cabelo, que acabam aparecendo "engessados" em vídeos deepfake. Se você nota que os fios não mudam nunca de posição, apresentam um aspecto rígido ou ainda estão lisos demais, quando deveriam ser crespos, há boa chance de que o vídeo seja falso.

Também é possível identificar material do tipo analisando borrões e desalinhamento em traços da imagem: se o rosto não está corretamente alinhado com o pescoço, ou se a união dessas duas características aparece borrada, o vídeo tem grandes chances de ser falso. Especialistas também recomendam assistir o vídeo com velocidade reduzida, algo que geralmente revela trechos em que junções e alterações foram realizadas, além de usar a busca do Google para ver se os resultados não mostram imagens parecidas, originais, que podem indicar a origem do material adulterado.

Todas essas dicas são aplicáveis atualmente, mas é bom ter em mente de que a tendência natural da técnica é evoluir e amadurecer, possivelmente diluindo esses pontos. Assim, os vídeos deepfake do futuro devem se tornar cada vez mais perfeitos, a um ponto que sua distinção diante do real venha a ser ainda mais difícil.

É possível criar uma inteligência artificial em casa? Descubra no Fórum do TechTudo



>>> Veja o artigo completo no TechTudo

Sobre Gerência Imóveis

A primeira plataforma que conecta o proprietário à imobiliária e/ou corretor de imóveis com o foco em potencializar as vendas e torná-las mais seguras maximizando o tempo do corretor.