A manipulação de conteúdo não coisa de agora. Há muito que ferramentas como o Photoshop têm assumido um papel central na distorção da realidade, através de montagens que por diversas vezes nos iludiram a visão ao ponto de alterar a percepção do que nos rodeia. Somam-se e multiplicam-se os casos de fotografias adulteradas que colocaram em xeque questões políticas, sociais e morais. Na era das notícias falsas, cada vez mais perigosas, os programas de edição de imagem transformaram-se em inimigos de difícil capitulação, preenchendo insistentemente as redes sociais e os próprios órgãos de comunicação.

Contudo, o grande desafio parece ainda estar para vir. Os deepfakes, técnica que recorre à inteligência artificial para falsear conteúdo vídeo e áudio, erguem-se como a grande ameaça dos tempos modernos, não só pela precisão dos conteúdos alterados, facilmente confundíveis com a realidade, mas igualmente pelo facto de serem uma muito complicada e quase mortífera arma na guerra das fake news, quando utilizados em contextos perversos. São vários os exemplos, do vídeo de Barack Obama a atacar Donald Trump, passando pelas declarações de Mark Zuckerberg em torno do controlo da população através do roubo de dados, e acabando no simples pedido de desculpas de Jon Snow pela derradeira temporada da série Game of Thrones.

O termo deepfake, que mistura as palavras deep learning e fake, é usado desde 2017, quando um utilizador do Reddit colocou uma série de vídeos pornográficos na plataforma, trocando a cara de figuras da milionária indústria pela de celebridades como Gal Gadot, Taylor Swift e Scarlett Johansson. Desde então que este tem sido o maior foco da ferramenta. Em Setembro de 2019, a empresa de inteligência artificial Deeptrace encontrou 15 mil vídeos falsos online, sendo 96% de índole pornográfica, na sua esmagadora maioria mulheres.

A técnica não se foca apenas em conteúdo vídeo e estende-se também a sectores como o áudio e a fotografia. Um desses exemplos é o da australiana Noelle Martin, que certo dia fez uma pesquisa utilizando o Google Image Reverse e descobriu que uma fotografia sua estava a ser manipulada e partilhada indevidamente

São necessárias várias etapas para criar um vídeo de troca de rosto. O programador fornece centenas e até milhares de fotos e vídeos das pessoas envolvidas, que são automaticamente processadas por uma inteligência artificial. É uma espécie de treino que leva o computador a aprender como se comporta determinado rosto, a nível de expressões, tiques, reacções à luz e sombras. Essa aprendizagem é feita com base nas informações fornecidas, até que o programa consiga encontrar um ponto comum entre as duas faces e construir essa “nova identidade”. Depois, é só receber conteúdo da pessoa A e processá-la como se fosse B.

A tecnologia começou a ser desenvolvida em instituições académias no início dos anos noventa e chegou recentemente a território amador, sendo aperfeiçoada com o passar do tempo ao ponto de se tornar imune aos próprios truques para desmascarar a informação falsa. Num artigo publicado pelo The Guardian no início do ano, Ian Sample explica o que mudou em apenas dois anos. “Em 2018, investigadores norte-americanos descobriram que um deepfake não pisca os olhos normalmente. Sem surpresas: a maioria das imagens mostram pessoas com os seus olhos abertos, por isso os algoritmos nunca chegam a aprender a piscar. Numa primeira análise, parecia uma bala de prata na detecção do problema. Mas assim que a pesquisa foi publicada, os deepfakes apareceram a piscar os olhos. Essa é a natureza do jogo: assim que se revela uma fraqueza, é imediatamente corrigida”.

O debate em torno dos efeitos nefastos dos deepfakes é de fácil compreensão. A democratização desta tecnologia pode muito bem ser o gatilho para uma fatal inundação de informação falsa que nos vai levar, daqui a uns anos, a duvidar de todo e qualquer conteúdo que seja colocado diante dos nossos olhos. Vamos passar de uma era como a actual, em que somos obrigados a levar quase tudo ao teste do polígrafo, para uma nova era em que não nos vai ser possível acreditar em nada, tal será o bombardeamento de vídeos manipulados, fotografias adulteradas e áudios falsificados. Todavia, já há governos, universidades e empresas de tecnologia a financiar projectos para detectar deepfakes. Em Dezembro do ano passado iniciou-se o primeiro Deepfake Detection Challenge, apoiado pela Microsoft, Facebook e Amazon, que inclui equipas de pesquisa de todo o mundo a competir pela supremacia na detecção dessa desinformação.

Nem o mundo da música parece passar incólume a esta tecnologia. Recentemente, aterraram no YouTube dois vídeos de Jay-Z muito particulares. Num deles surge a ler a mais famosa passagem de Hamlet, de William Shakespeare; no outro, rappa a letra de “We Didn’t Start the Fire”, de Billy Joel. Tratam-se de deepfakes, construídos com recurso ao Tacotron 2, um programa desenvolvido pela Google que combina excertos de áudio e discursos para criar conteúdos novos, gerados por inteligência artificial. Os vídeos estão hospedados no canal de YouTube Vocal Synthesis, que se encontra recheado de vozes famosas a entregarem material inesperado. Entre as “vítimas” estão nomes como Jerry Seinfeld, Barack Obama, Frank Sinatra, John F. Kennedy, Bernie Sanders, The Notorious B.I.G., Donald Trump, George W. Bush, Martin Luther King e Arnold Schwarzenegger, entre outros.

Depois de uma alegada queixa de direitos de autor por parte da Roc Nation, acusando o criador anónimo do canal ter usado ilegalmente a inteligência artificial para personificar a voz de Jay-Z, os vídeos foram retirados – mas acabariam por reintegrar a lista passados poucos dias. Aparentemente, segundo especialistas jurídicos, personificar a voz de alguém com recurso a inteligência artificial não viola a lei existente de direitos de autor, por não ser possível o registo de um estilo vocal. Ou seja, não sendo uma questão de sampling ou de uso indevido de um excerto de áudio, não existe uma lei que preveja uma acção judicial por parte do artista.

Numa primeira instância, tratando-se de vídeos num canal com relativamente poucos subscritores e conteúdos assumidamente falsos, este não parece ser um problema de ordem maior. Contudo, se esta tecnologia continuar a aprimorar o seu comportamento e a viver num vazio legal, até que ponto é que isto não poderá ser uma ameaça à indústria? Não faltará muito para vermos Jay-Z, Kendrick Lamar ou Beyoncé a participarem em músicas nas quais nunca escolheram entrar e a debitarem versos que nunca escreveram. Os deepfakes são uma séria ameaça à autenticidade, quer a nível da informação noticiosa, obrigando-nos no futuro a ainda mais ríspidas técnicas de peneira, quer no campo da arte.