Sabe o que são deepfakes? Aprenda como dizer se um vídeo é ou não falso.

Victor Góis
digitalmente
Published in
8 min readNov 19, 2018

Se na semana passada a China nos surpreendeu com o anúncio da criação de seu primeiro âncora de jornalismo não-humano através de inteligência artificial, pode-se dizer que o surgimento de IAs complexas e seu uso para a criação de vídeos também está alimentando a próxima fase da desinformação. O novo tipo de mídia sintética conhecido como deepfakes representa um grande desafio para as redações jornalísticas quando se trata de verificação.

Você pode dizer qual das imagens abaixo é falsa? (Verifique a resposta no fim do texto.)

Como a maioria dos deepfakes é criada?

A produção da maioria dos deepfakes baseia-se em uma técnica de aprendizado de máquina chamada “generative adversarial networks”, ou GANs. Essa abordagem pode ser usada por falsificadores para trocar os rostos de duas pessoas — por exemplo, os de um político e um ator. O algoritmo procura por instâncias em que os dois indivíduos exibam expressões e posicionamentos faciais semelhantes. No fundo, os algoritmos de inteligência artificial estão procurando a melhor combinação para justapor as duas faces.

Como a pesquisa sobre GANs e outras abordagens de aprendizado de máquina estão disponíveis na internet, a capacidade de gerar deepfakes está se espalhando. O software de código aberto já permite que qualquer pessoa com algum conhecimento técnico e uma placa de vídeo poderosa o bastante consiga criar um deepfake.

Algumas instituições acadêmicas, como a New York University, estão adotando abordagens exclusivas para a alfabetização midiática. Uma turma do Interactive Telecommunications Program (ITP) da NYU Tisch — “Faking the News” — expõe os alunos aos perigos de deepfakes ensinando-os a forjar conteúdo usando técnicas de IA. “Estudar essa tecnologia nos ajuda não apenas a entender as possíveis implicações, mas também as limitações”, disse Chloe Marten, gerente de produto da Dow Jones e candidata ao mestrado que se matriculou na classe da NYU.

As técnicas mais usadas para criar deepfakes

Criadores de deepfake podem usar uma variedade de técnicas. Aqui estão algumas:

Faceswap (troca de rostos): Um algoritmo pode inserir facilmente o rosto de uma pessoa em um outro vídeo. Essa técnica pode ser usada para colocar o rosto de uma pessoa no corpo de um ator e colocá-lo em situações em que nunca estiveram.

Sincronia labial: os falsificadores podem enxertar uma boca que sincroniza os lábios no rosto de outra pessoa. Combinar a filmagem com novo áudio pode fazer parecer que eles estão dizendo coisas que nunca disseram.

Reencenação facial: os falsificadores podem transferir expressões faciais de uma pessoa para outro vídeo. Com essa técnica, os pesquisadores podem brincar com a aparência de uma pessoa e fazê-la parecer enojada, com raiva ou surpresa.

Transferência de movimento: os pesquisadores também descobriram como transferir os movimentos do corpo de uma pessoa. Por exemplo, eles podem capturar os movimentos de um dançarino e fazer com que os atores alvo se movam da mesma maneira. Em colaboração com pesquisadores da Universidade da Califórnia, em Berkeley, o correspondente do The Wall Street Journal, Jason Bellini, experimentou essa técnica e acabou dançando como Bruno Mars.

Os jornalistas têm um papel importante em informar o público sobre os perigos e desafios da tecnologia de inteligência artificial. Relatar essas questões é uma maneira de conscientizar e informar o público.

“Deepfake Videos Are Getting Real and That’s a Problem,” The Wall Street Journal.

Como detectar deepfakes?

Especialistas estão testando novas ferramentas que podem ajudar a detectar ou impedir a mídia forjada. Em todo o setor midiático, as organizações de notícias podem considerar várias abordagens para ajudar a autenticar a mídia, caso suspeitem de alterações.

“Existem maneiras técnicas de verificar se a filmagem foi alterada, como passar por um quadro a quadro em um programa de edição de vídeo para procurar por formas não naturais e adicionar elementos, ou fazer uma pesquisa de imagem inversa”

, diz Natalia V. Osipova , uma jornalista de vídeo sênior no WSJournal. Mas a melhor opção é muitas vezes a reportagem tradicional: “Estenda a mão à fonte e ao assunto diretamente e use seu julgamento editorial”.

Examinando a fonte

Se alguém enviou imagens suspeitas, um bom primeiro passo é tentar entrar em contato com a fonte. Como essa pessoa conseguiu isso? Onde e quando foi filmado? Obter o máximo de informações possível, solicitar mais provas das solicitações e sempre continuar a verificar.

Se o vídeo estiver on-line e o uploader for desconhecido, vale a pena explorar outras perguntas: quem supostamente filmou a filmagem? Quem publicou e compartilhou e com quem? Verificar os metadados do vídeo ou da imagem com ferramentas como InVID ou outros visualizadores de metadados pode fornecer respostas.

Esta é uma paisagem em rápida evolução com soluções emergentes que aparecem regularmente no mercado. Por exemplo, novas ferramentas, incluindo TruePic e Serelay, usam blockchain para autenticar fotos. Independentemente da tecnologia usada, os humanos na redação estão no centro do processo. Segundo Rajiv Pant, diretor de tecnologia do WSJournal.

“A tecnologia sozinha não resolverá o problema. A maneira de combater os deepfakes é aumentar os humanos com ferramentas de inteligência artificial.”

Encontrando versões mais antigas da filmagem

Deepfakes são frequentemente baseados em imagens que já estão disponíveis online. Mecanismos de pesquisa de imagem reversa, como o Tineye ou a Pesquisa de imagens do Google, são úteis para encontrar possíveis versões mais antigas do vídeo para descobrir se um aspecto dele foi manipulado.

Examinando as filmagens

Programas de edição de vídeo permite que os jornalistas coloquem a filmagem em slowmotion, ampliem e olhem para ela quadro a quadro ou façam uma pausa várias vezes. Isso ajuda a revelar falhas óbvias: cintilação e imprecisão em torno da boca ou do rosto, iluminação ou movimentos não naturais, e as diferenças entre os tons de pele são sinais reveladores de deepfake.

Como experiência, aqui estão alguns problemas que a equipe forense do WSJournal encontrou durante uma sessão de treinamento usando imagens de Barack Obama criadas por produtores de vídeo no BuzzFeed.

As formas em forma de caixa em torno dos dentes revelam que esta é uma imagem costurada dentro da gravação original.

Além desses detalhes faciais, também podem existir pequenas edições no primeiro ou segundo plano da filmagem. Parece que um objeto foi inserido ou excluído em uma cena que pode alterar o contexto do vídeo (por exemplo, uma arma, um símbolo, uma pessoa etc.)? Mais uma vez, a luz difusa e a luz não natural podem ser indicadores de imagens falsas.

No caso de áudio, atente para a entonação artificial, respiração irregular, vozes com som metálico e edições óbvias. Estas são todas as dicas de que o áudio pode ter sido gerado pela inteligência artificial. No entanto, é importante observar que os artefatos, falhas e imperfeições de imagem também podem ser introduzidos pela compactação de vídeo. É por isso que às vezes é difícil determinar de forma conclusiva se um vídeo foi falsificado ou não.

Ramificações profundas para a sociedade

Embora essas técnicas possam ser usadas para reduzir significativamente os custos de produção de filmes, jogos e entretenimento, elas representam um risco para os meios de comunicação, bem como para a sociedade de forma mais ampla. Por exemplo, vídeos falsos podem colocar políticos em reuniões com agentes estrangeiros ou até mesmo mostrar soldados cometendo crimes contra civis. Falso áudio pode fazer parecer que autoridades do governo estão planejando ataques privados contra outras nações.

Nos EUA, os senadores Mark Warner e Marco Rubio já estão alertando sobre cenários como esses e trabalhando em possíveis estratégias para evitá-los. Além disso, os deepfakes poderiam ser usados ​​para enganar as organizações de notícias e minar sua confiabilidade. A publicação de um vídeo falso não verificado em uma notícia pode manchar a reputação de uma redação e, finalmente, levar os cidadãos a perder ainda mais a confiança nas instituições de mídia. Outro perigo para os jornalistas: ataques pessoais profundos mostrando profissionais de notícias em situações comprometedoras ou alterando fatos — novamente voltados para desacreditá-los ou intimidá-los.

À medida que os deepfakes chegam às mídias sociais, sua disseminação provavelmente segue o mesmo padrão das outras notícias falsas. Em um estudo do MIT que investigou a difusão de conteúdo falso no Twitter publicado entre 2006 e 2017, os pesquisadores descobriram que “a falsidade difundiu-se significativamente mais longe, mais rápido, mais profundamente e de forma mais ampla do que a verdade em todas as categorias de informação”. As histórias falsas foram 70% mais propensas a serem retweetadas do que a verdade e chegaram a 1.500 pessoas seis vezes mais rapidamente do que artigos precisos.

O que vem agora?

Deepfakes não vão desaparecer tão cedo. É seguro dizer que essas elaboradas falsificações dificultarão a verificação da mídia, e esse desafio poderá se tornar mais difícil com o tempo.

“Vimos esse rápido aumento na tecnologia de deep learning e a pergunta é: qual patamar estamos? O que vai acontecer a seguir? ”, Disse Hany Farid, especialista em foto-forense, que se juntará à faculdade da Universidade da Califórnia, em Berkeley, no ano que vem. Ele disse que os próximos 18 meses serão críticos: “Eu acho que as questões estão chegando ao fim”, acrescentando que ele espera que os pesquisadores tenham feito avanços antes do ciclo das eleições de 2020.

Apesar da atual incerteza, as redações podem e devem acompanhar a evolução dessa ameaça realizando pesquisas, estabelecendo parcerias com instituições acadêmicas e treinando seus jornalistas sobre como alavancar novas ferramentas.

E aqui está a solução para o nosso teste de deepfake acima: A filmagem à esquerda foi alterada com a ajuda da IA.

Uma equipe de pesquisadores usou uma forma de reconstituição facial chamada “Deep Video Portraits” para transferir os movimentos faciais de Barack Obama para o rosto de Ronald Reagan. Olha como se parece:

O artigo acima é uma tradução livre do artigo escrito por Francesco Marconi, chefe de pesquisa e desenvolvimento do The Wall Street Journal. A reportagem original pode ser encontrada aqui.

--

--

Victor Góis
digitalmente

Pesquiso e produzo sobre cultura digital. Me interesso pela convergência entre comunicação, filosofia, arte, política e tecnologia.