28/01/2019 - 17:15
Imagens de um político dizendo o que nunca diria ou um vídeo pornô de uma estrela de Hollywood. O que poderia parecer uma falha no televisor é, na verdade, o futuro das “fake news”.
Os vídeos “deepfake”, que manipulam a realidade, estão se tornando cada vez mais sofisticados graças aos avanços da inteligência artificial, aumentando assim seu potencial para gerar um novo tipo de desinformação, com consequências devastadoras.
“Ainda não chegamos à etapa em que os ‘deepfakes’ são usados como armas, mas esse momento está próximo”, diz à AFP Robert Chesney, um professor de direito na Universidade do Texas que pesquisou o assunto.
Chesney considera que os “deepfakes” poderiam adicionar confusão à onda atual de desinformação.
“Um ‘deepfake’ oportuno com um roteiro intencional ou uma série desses vídeos poderiam virar uma eleição, acender a violência em uma cidade preparada para a agitação social, impulsar discursos sobre supostas atrocidades de um inimigo ou exacerbar as divisões políticas em uma sociedade”, apontaram Chesney e Danielle Citron, professora da Universidade de Maryland, em uma publicação de blog para o Conselho de Relações Exteriores.
Paul Scharre, membro do Center for a New American Security, um think tank especializado em inteligência artificial e questões de segurança, diz que é quase inevitável que os “deepfakes” possam ser utilizados nas próximas eleições.
Um vídeo falso poderia ser usado para desprestigiar um candidato, adverte Scharre, ou para que as pessoas possam negar fatos expostos em vídeos autênticos.
Se circulam vídeos falsos críveis, as “pessoas podem escolher acreditar na versão ou no discurso que quiserem, e essa é a verdadeira preocupação”, acrescenta.
– A volta de Chaplin? –
A manipulação de vídeos existe há décadas e pode ser inócua ou inclusive divertida, como a aparição de Peter Cushing em “Rogue One: A Star Wars Story” graças à tecnologia, 22 anos após sua morte.
Pesquisadores da Universidade Carenegie Mellon revelaram no ano passado técnicas que simplificam a produção de “deepfakes” através do aprendizado de máquina para deduzir a informação que está faltando.
Na indústria cinematográfica “a esperança é que possamos trazer de volta antigas estrelas como Charlie Chaplin”, diz Aayush Bansal.
A difusão de aplicativos que fazem vídeos falsos de forma realista ameaça prejudicar a noção de verdade nos meios, nos julgamentos e em outras áreas, apontam os pesquisadores.
“Se podemos pôr qualquer palavra na boca de qualquer um, dá bastante medo”, aponta Siwei Lyu, professor de computação na Universidade do Estado de Nova York em Albany, que está pesquisando a detecção de “deepfakes”.
“Apaga-se a linha entre o que é verdadeiro e o que é falso. Se não podemos confiar realmente em que a informação seja autêntica, é melhor não ter informação”.
– Separar o falso do real –
Os pesquisadores trabalham há algum tempo em melhores métodos de detecção, com o apoio de companhias privadas como Google e de instituições governamentais como a Agência de Projetos de Pesquisa Avançados de Defesa (Darpa) do Pentágono, que começou uma iniciativa de análise dos meios em 2015.
Embora as “deepfakes” estejam se desenvolvendo há vários anos, o tema voltou a ficar no centro das atenções em abril, quando surgiu um vídeo em o ex-presidente Barack Obama utiliza um palavrão para descrever seu sucessor Donald Trump. No fim das contas, era um artifício do cineasta Jordan Peele coordenado com o BuzzFeed para alertar sobre esses vídeos enganosos.
Em 2018, a proliferação de vídeos pornô nos que os rostos dos protagonistas eram trocados por imagens de Emma Watson, Scarlett Johansson e outras celebridades levou todos os “deepfakes” a serem proibidos por Reddit, Twitter e Pornhub. No entanto, não ficou claro como essa norma poderia ser cumprida.
Scharre considera que uma forma importante de combater os “deepfakes” é aumentar a conscientização pública, fazendo com que as pessoas sejam mais céticas ante o que costumava ser considerado como prova indiscutível.
“Uma vez que um vídeo se torna viral, poderia ser tarde demais para o dano social que provocou”, afirma.