O que é deep fake e porque você deveria se preocupar
A tecnologia é capaz de reproduzir o rosto de qualquer pessoa em qualquer vídeo
Imagine a situação: você está em casa e, de repente, recebe inúmeras mensagens de amigos e familiares contendo um vídeo pornográfico no qual aparece a sua imagem. Você não lembra da cena gravada, não por esquecimento, mas por jamais ter participado do que assiste. O seu rosto está nítido, mas não é você, e sim a sua face reproduzida no corpo de outra pessoa. A prática que produz estes conteúdos maliciosos se chama deep fake e pode atingir qualquer pessoa. Assim como as fake news, pode ser usada, inclusive, como evidência forjada de uma mentira.
A ferramenta que possibilita essas edições tem promovido inúmeras crises de imagem para pessoas, empresas e governos. O deep fake usa o rosto de pessoas em vídeos colocando-as em qualquer situação, geralmente vexatória. Quando bem feito, uma análise sem critérios não percebe a falsidade do arquivo.
O desenvolvimento
Com ferramentas de inteligência artificial e machine learning (aprendizado de máquina, em inglês - processo pelo qual a máquina "aprende" a partir das ações do usuário) de código aberto, ou seja, de acesso irrestrito. Desenvolvedores criaram um algoritmo capaz de mapear o rosto de uma pessoa e reproduzir no corpo de outra, movimento por movimento, com fidelidade.
Apesar do comum mal uso, esta técnica possibilita recursos que não demonstrariam riscos potenciais. O cinema já utilizou, por exemplo, para recriar cenas como em "Capitão América: Guerra Civil" (para recriar Robert Downey Jr. jovem), "Rogue One: Uma História Star Wars" (para incluir uma cena com Carry Fisher jovem) e Will Smith em "Projeto Gemini". Outras ocasiões são produções publicitárias e personalização de personagens em jogos de vídeo-game.
O desenvolvimento desses vídeos foi intensificado, principalmente para o mal, quando o processo de criação foi automatizado. Dezenas de vídeos pornográficos foram feitos a partir dessa tecnologia. Celebridades como Paola Oliveira, Gal Gadot (que fez "Mulher Maravilha"), Emma Watson (conhecida pela franquia "Harry Potter"), Maisie Williams (da série "Game of Thrones"), Scarlett Johansson (do universo dos "Vingadores" nos cinemas), entre outras, foram vítimas.
O ator Jordan Peele (que atuou nos filmes "Corra!" e "Nós"), em 2018, chamou a atenção sobre a tecnologia ao produzir um deep fake do ex-presidente americano Barack Obama. No vídeo, Obama dizia que estamos em uma era em que "nossos inimigos podem fazer qualquer um dizer qualquer coisa a qualquer momento". Peele foi de capaz de controlar a fala e os movimentos do ex-presidente norte-americano com precisão.
Similar a este exemplo, a Samsung criou uma tecnologia capaz de produzir vídeos a partir de uma foto. O programa analisa outros vídeos e aprende os movimentos para assim reproduzi-los em imagens estáticas. Assista ao vídeo que explica o processo com exemplos.
Apesar de o recurso ter sido criado para fins lúdicos, atualmente nada impede que um uso malicioso seja posto em prática.
O partido belga Socialistische Partij criou um vídeo falso em que Donald Trump, presidente dos Estados Unidos, pede à população norte-americana que vote pela renúncia ao Acordo de Paris, tratado que rege políticas climáticas internacionais. O partido defende a intensificação de políticas ambientais e o vídeo falso com Trump investiu na psicologia reversa. Se Trump é contra leis pela preservação da natureza, a maioria do público acabaria votando a favor apenas para contrariá-lo.
Trump heeft een boodschap voor alle Belgen... #Klimaatpetitie pic.twitter.com/Kf7nIaDOKj
— sp.a (@sp_a) 20 de maio de 2018
Deep fake e a sociedade
Em um mundo conectado, o controle das fake news tornou-se improvável diante de sua crescente sofisticação, como explica a professora doutora Ivana Oliveira.
O conteúdo por quem produz
“Quando eu vi aquele discurso todo atrapalhado, lembrei na hora dos episódios de Chapolin. Aí, como já trabalhava com a tecnologia de deep fake, coloquei o rosto do presidente no corpo do personagem”, lembra o jornalista Bruno Sartori em entrevista ao Metrópoles. O vídeo viralizou na mídias sociais. “Muita gente passou a me procurar”, conta.
O criador de conteúdo deixa claro que seus vídeos são peças de humor e não uma realidade.
Criticavam os discursos aleatórios de Dilma e elegeram o BOLSONARO? pic.twitter.com/jzJpPXXKYk
— Bruno Sartori (@brunnosarttori) 18 de maio de 2019
Depois do primeiro vídeo, Sartori passou a desenvolver diversos memes usando a tecnologia. Outros personagens ligados direta ou indiretamente ao governo federal entraram na pauta. Carlos Bolsonaro, filho do presidente, e o ministro da Justiça e Segurança Pública, Sergio Moro, foram alguns deles.
Agora com certeza a @policialfederal de @SF_Moro vem! Por favor, façam uma vaquinha para me soltar. pic.twitter.com/x13q73qPS0
— Bruno Sartori (@brunnosarttori) 20 de junho de 2019
De Unai (MG), Sartori ironizava e denunciava desmandos no município que, segundo o Instituto Brasileiro de Geografia e Estatística (IBGE), tem 83,8 mil habitantes. “Eu provocava muita gente poderosa da região”, diz. Por conta disso, passou a enfrentar processos e, de tanto lidar com a Justiça, optou por estudar direito.
Sartori explica que a experiência no dia-a-dia do poder municipal e a própria infância pobre o nortearam em sua formação ideológica e política. Se define como centro-esquerda, com “uma empatia maior pela luta das pessoas”. Ele rejeita rótulos de extremismo.
Adepto do diálogo com amigos e pessoas que possuem outra ideologia política, Sartori sabia que, ao fazer vídeos ironizando Jair Bolsonaro, ia enfrentar críticas dos apoiadores do atual presidente. São as chamadas milícias virtuais, usadas para tentar abafar vozes no debate público. Essas milícias virtuais seriam as mesmas citadas pela deputada federal Joice Hasselmann (PSL-SP).
“Esse clima de polarização do Brasil transformou a política em torcida de futebol, mas a maior parte dos que me atacam são robôs ou usuários com perfis falsos. O pessoal que me segue rapidamente aparece em minha defesa”, destaca Sartori. O jornalista, apesar dos ataques, planeja o futuro.
A popularidade recém-conquistada é usada por para conseguir um novo computador. Como a tecnologia utilizada exige máquinas com maior capacidade de processamento, ele iniciou uma campanha na qual pede R$ 20 mil. Ele deseja comprar um equipamento mais avançado com o recurso e está próximo da meta.
Reconhecendo um deep fake
Reconhecer um deep fake pode ajudar a não acreditar em uma notícia falsa e passá-la adiante. Veja como em cinco passos:
• Observe os movimentos da boca para perceber se correspondem ao que é dito;
• Fique atento à voz para ouvir se a entonação parece normal;
• Verifique os olhos para notar se eles movimentam-se normalmente;
• Esteja atento a respiração e a situação na qual a pessoas está para saber se condizem;
• Se a pessoa no vídeo é alguém que você não conhece, procure outros vídeos para comparar o comportamento.
Como se proteger
Evite o compartilhamento de vídeos pessoais com desconhecidos, não os compartilhe em redes sociais de forma pública e prefira guardar seus arquivos em locais de acesso restrito.
De acordo com a Polícia Civil, caso tenha sido vítima ou conheça uma, colete todas as provas que tiver alcance e procure imediatamente uma autoridade policial em uma Delegacia de Polícia para registrar o boletim de ocorrência.
Entre em contato com a Divisão de Prevenção e Repressão a Crimes Tecnológicos (DPRCT) da Polícia Civil, que fica no segundo andar da DRCO (Divisão de Repressão ao Crime Organizado), na Avenida Pedro Alvares Cabral esquina da Avenida Doutor Freitas, na Sacramenta. Os contatos são o fone fixo tel:(91) 3222-7567 e os e-mails drctpa@policiacivil.pa.gov.br e drctpa@gmail.com.
Os crimes em que os autores do deepfake estão sujeitos a responder estão contidos no Código Penal. Os tipos penais podem variar de acordo com o que foi cometido pelos acusados contra as vítimas. Pode variar desde calúnia, difamação, injúria e pornografia.
Palavras-chave
COMPARTILHE ESSA NOTÍCIA