Home > Inovação > Deepfake: parece verdade, mas não é
Inovação

Deepfake: parece verdade, mas não é

Técnica usa inteligência artificial para colocar pessoas em vídeos falsos e criar situações constrangedoras ou perigosas

01.07.2019 - Por Bayer Jovens

Verdadeiro ou falso? Está cada vez mais difícil saber se a informação que se consome na web, e principalmente nas redes socias, é autêntica ou pura mentira. E não se trata apenas das temíveis fake news: o problema maior agora são os deepfakes, vídeos que trazem pessoas reais em cenas e situações falsas, mas incrivelmente parecidas com a realidade. Para o bem e para o mal.

Os grandes estúdios já usam a técnica de inserir digitalmente o rosto de artistas em dublês para recriar cenas difíceis ou impossíveis de serem gravadas – porque o ator morreu (como foi o caso de Brandon Lee, de O corvo, e de Paul Walker, de Velozes e Furiosos, que faleceram durante as filmagens) ou para trazer de volta uma personagem do passado (como aconteceu com Carrie Fisher em Rogue One, quando a atriz, ainda viva, não participou da filmagem, e em vez disso sua personagem, a princesa Leia, foi “revivida” com 19 anos).

A técnica também foi utilizada no vídeo da campanha global Malaria No More UK, em que o ex-jogador de futebol David Beckham faz um apelo para erradicar a doença do mundo em oito diferentes idiomas (espanhol, kinyarwnanda, árabe, francês, hindi, mandarim, kiswahili e yoruba, além do inglês). As vozes são de Beckham, mas também de homens e mulheres de diversas partes do mundo, incluindo sobreviventes de malária e médicos que combatem a doença, do Reino Unido à China e à Nigéria, como se vê no vídeo da campanha.

Ao mesmo tempo em que impressiona, a técnica também preocupa, por vários motivos. Por exemplo, pela facilidade com que qualquer pessoa pode fazer um deepfake – há vários softwares disponíveis na web, alguns gratuitos – e pela questão ética, ou a falta dela. Já tem gente usando a ferramenta para manipular a verdade ou constranger e agredir pessoas comuns ou públicas com os odiosos pornôs de vingança. Entre outras, as atrizes Gal Gadot, de Mulher Maravilha, e Natalie Portman, de V de Vingança, já tiveram seus rostos inseridos em cenas de filmes pornográficos. Na política, se usada de forma inescrupulosa, a prática pode até mesmo manipular eleições ou desestabilizar regiões em conflito.

E a situação pode piorar. De acordo com Robert Chesney, professor de direito na Universidade do Texas, nos Estados Unidos, “ainda não chegamos à etapa de usar os deepfakes como arma, mas esse momento está próximo”, disse à AFP, em matéria publicada na revista IstoÉ.

Reconhecer um deepfake não é tarefa fácil, uma vez que, graças aos avanços da inteligência artificial, esse tipo de vídeo está cada vez mais sofisticado. Colocar a IA para identificar fraudes pode ser perigoso, alertam os especialistas da área, pois, criar algoritmos para detectar falsificações pode acabar aperfeiçoando a adulteração, em um processo de learning machine, ou aprendizado da máquina.

Por isso, por enquanto é importante que se desconfie sempre que um vídeo parecer bombástico demais. Preste atenção na qualidade da imagem e na maneira como os rostos se movem. Vídeos manipulados trazem erros visuais, como resolução mediana, oscilações, tremores e flutuações. Se ainda restar dúvidas quanto à autenticidade, tente checar os fatos. Uma atriz famosa em um filme pornográfico, por exemplo, geraria muita notícia. Se não encontrou nada a respeito nas midias respeitáveis – sites de jornais e revistas de grande circulação –, é bem provável que se trate de um deepfake.