“Deepfake” deve invadir campanha eleitoral: entenda

“Deepfake” deve invadir campanha eleitoral: entenda

A utilização de vídeos com a técnica "deepfake" é um quadro que deverá estar presente na disputa eleitoral de 2022.

Neste tipo de vídeo, efeitos de computação são utilizados para simular os rostos e as vozes de pessoas, de modo a sugerir que elas tenham feito algo que não corresponda à realidade.

Um exemplo de vídeo "deepfake" que ganhou repercussão internacional foi o que mostrava um discurso falso do presidente da Ucrânia, Volodymyr Zelensky, em que ele anunciava a rendição de seu país à Rússia. O vídeo fraudulento foi divulgado em março e motivou declarações oficiais de sites como Facebook, YouTube e Twitter, que excluíram a publicação de suas plataformas.



Os "deepfakes" não são exatamente uma novidade. Vídeos com este perfil circulam pela internet desde a segunda metade da década passada. A presença de "deepfakes" foi significativa durante as eleições dos Estados Unidos em 2020, quando o país votou para presidente e elegeu Joe Biden.

O panorama daquele momento levou a Microsoft, gigante de tecnologia, a criar um software especializado na identificação de "deepfakes". Exemplos anteriores haviam sido registrados nos períodos eleitorais norte-americanos de 2018 e 2016, e também em circunstâncias não diretamente ligadas à política.

A propagação de vídeos com "deepfake" durante o período eleitoral é algo que pode levar os responsáveis a sofrerem as mesmas punições aplicáveis aos disseminadores de notícias falsas, as chamadas fake news.

"A natureza desta ação é de uma informação fraudulenta, assim como as fake news, só que em um formato audiovisual. Logo, tem as mesmas sanções das fake news", explicou o advogado Renato Ribeiro, especialista em Direito Eleitoral.

Ribeiro avalia que a Justiça Eleitoral brasileira tem se qualificado para conseguir responder de maneira ágil a esse quadro.

"Nas eleições de 2022, o ambiente em relação a esse assunto é mais propício a gerar condenações, tendo em vista que essa técnica tem se popularizado", disse.

Entre as punições possíveis aos responsáveis está a perda de mandato, no caso de propagação feita por candidatos que tenham vencido a disputa eleitoral.

Um vídeo que circulou pela internet nas últimas semanas foi apontado como "o primeiro 'deepfake' das eleições 2022". A peça simulava uma edição do Jornal Nacional, da TV Globo, em que se apresentava uma pesquisa eleitoral na qual Bolsonaro era o líder, e o ex-presidente Luiz Inácio Lula da Silva estaria na segunda colocação.

O vídeo manipulado pegava trechos de uma reportagem real do JN, narrada pela jornalista Renata Vasconcellos, e trocava a ordem das falas para modificar seu sentido. Na verdade, o Jornal Nacional noticiou uma pesquisa que dizia o oposto, com Lula em primeiro lugar e Bolsonaro em segundo.



O tipo de edição feita para o vídeo motivou debates sobre se a peça seria efetivamente um "deepfake" ou não. Porque no caso não houve a simulação da voz de Renata Vasconcellos, e sim uma edição com trechos de falas que ela efetivamente fez. Este tipo de manipulação, para alguns especialistas, seria o que é chamado de "shallowfake". A palavra "shallow", em inglês, significa algo como "raso", um contraste a "deep", que é "profundo".

Para o engenheiro de computação Otávio Lube, professor da Universidade Federal do Espírito Santo (UFES), a discussão sobre os tipos de manipulação e os termos correspondentes é menos relevante, diante da concepção de que tratam de publicações falsas e que, na sua avaliação, precisam ser combatidas.

"Acho que no fim das contas é a mesma coisa, apenas feito de forma mais sutil. A questão não é tanto assim a técnica que foi adotada, e sim a mensagem que é passada", destaca.

Segundo Lube, nos últimos anos a tecnologia necessária para se produzir um "deepfake" se tornou mais acessível – e, portanto, mais peças com este perfil tendem a aparecer pela internet. Mas ele ressalta que a qualidade no tipo de produção também varia bastante. Há "deepfakes" que são realmente profissionais, em que a manipulação é de difícil percepção, e há as feitas de forma mais grosseira.

Os vídeos "deepfakes" de melhor qualidade técnica são feitos com equipamentos que não estão acessíveis à maior parte da população. Alguns deles se utilizam de técnicas de inteligência artificial e do chamado "machine learning", que consiste em estimular o "aprendizado" das máquinas. Um exemplo disso é a produção das vozes falsas. O método para se chegar até isso prevê a inserção, nos softwares, de exemplos reais das vozes que se quer imitar, até que o programa "entenda" a voz em questão e passe a saber como "imitá-la".

Lube acredita que a principal ferramenta para a identificação de uma "deepfake" não é de cunho tecnológico, mas sim de percepção pelo usuário comum de internet: "a primeira coisa é desconfiar sempre".

"Eu tenho uma pergunta padrão para casos desse tipo: qual é a fonte? Quem está falando sobre isso? Tem que desconfiar, ver se saiu em algum veículo de imprensa confiável, ver se mais pessoas estão falando sobre isso", explicou.

O eleitor que reconhecer um vídeo "deepfake" pode apresentar uma denúncia ao Ministério Público Eleitoral (MPE) ou encaminhar a peça aos departamentos jurídicos das campanhas das vítimas da manipulação.