Deepfake

Termo que vem da junção de “Deep Learning” e “Fake” ganhou espaço ao possibilitar criar vídeos substituindo rostos de pessoas de maneira muito próxima a realidade.

No final de 2017, em um site chamado Reddit, um usuário chamado “deepfake” começou a postar vídeos fakes de conteúdo pornográfico envolvendo mulheres famosas. Nesses vídeos, os rostos das mulheres foram substituídos por rostos de grandes estrelas do cinema de Hollywood, e assim aconteceu a primeira aparição da deepfake no mundo de “pessoas comuns”. Contudo, foi em 2019 que essa tecnologia ganhou notoriedade ao surgirem vídeos de grandes personalidades americanas com rostos trocados (acho que todo mundo viu o Nicolas Cage encarnando o corpo de Donald Trump, ne?). Efeitos como esse já eram usados no cinema há muitos anos, mas foi a partir daí que passou a se popularizar, já que é possível criar esses efeitos em casa com computadores e internet. Dessa forma, podemos dizer que a deepfake trouxe um pouco da “magia” do cinema para pessoas comuns.

“Na minha opinião, o mais importante é que o público em geral deve estar ciente das capacidades da tecnologia moderna para a geração e a edição de vídeo. Isso permitirá que eles pensem mais criticamente sobre o conteúdo de vídeo que consomem todos os dias, especialmente se não houver prova de origem.” Michael Zollhöfer, professor assistente visitante da Universidade de Stanford

Imagem da deepfake de Nicolas Cage e Donald Trump. Fonte: Github

A deepfake utiliza recursos de Inteligência Artificial, mais especificamente a deep learning, para substituir rostos em vídeos e fotos com o objetivo de tornar mais próximo possível da realidade. O funcionamento dessa tecnologia pode ser dividido em 4 passos para entendido de maneira simples:

1.       O usuário alimenta o sistema com um número satisfatório de imagens e vídeos de quem se pretende copiar.

2.       A Inteligência Artificial vai buscar padrões comportamentais, de voz e de movimentos e fazer uma cópia da maneira como aquela pessoa se comporta. Assim, ele se torna capaz de replicar comportamentos parecidos com a realidade.

3.       Software recebe a imagem da pessoa X (o seu, por exemplo) e a processa como se ela fosse um indivíduo totalmente diferente.

4.       Esse “aprendizado” é realizado com a face do vídeo original e transportada para o novo rosto, logo após o sistema encontrar um ponto comum entre as duas pessoas retratadas no vídeo. As duas imagens são, por fim, “fundidas”.

Entretanto, o surgimento de vídeos muito realistas com imagens de importantes personalidades políticas surgiu um sinal de alerta: a disseminação de informações falsas para proveito próprio.  Esse fato de aproximar muito de algo real pode-se tornar um prato cheio para que fake news sejam espalhadas, o que pode ameaçar a sociedade e a democracia de muitos países. Além disso, existem ainda os casos de pornôs fictícios que podem acarretar grandes problemas para as vítimas.

Deepfake de Lula e Bolsonaro como Paulina e Paola da novela Usurpadora Fonte: Startupi

“Com métodos baseados em inteligência artificial para criar deepfakes se tornando altamente sofisticados e acessíveis, as deepfakes estão também elevando a necessidade de políticas, tecnologias e questões legais”. John Vilasenor, pesquisador do Centro de Inovações Tecnológicas Brookings Institution.

Pensando nisso, nós resolvemos dar algumas dicas de como reconhecer uma deepfake:

  • Lábios: analisar se eles se movem de acordo com o que é dito sem desacordo de imagem e áudio. Isso pode ocorrer porque existe uma certa dificuldade em encaixar exatamente tudo na face.

  • Movimentação do tronco: perceba se o movimento é fluido ou robótico

  • Olhos: costumam não realizar o movimento de piscar ou quando fazem não é natural.

  • Movimentos duplicados: mesmo sendo de boa precisão, ainda assim não está livre de erros. Então vale a pena prestar atenção se todos os movimentos estão em sequência lógica.

Ficou na dúvida se é real ou fake? Corre aqui nas nossas dicas que não tem erro!

Acompanhe nossas redes sociais!

Instagram

LinkedIn