Deepfake é uma nova tecnologia de mídia em que uma pessoa simplesmente pega um texto, imagem, vídeo ou áudio existente e, em seguida, manipula, ou seja, ‘finge‘ para parecer outra pessoa usando tecnologia de inteligência artificial avançada (IA) e rede neural (NN)

Depois de sua primeira aparição há alguns anos, a tecnologia deepfake evoluiu de uma chicana inócua para um geek de tecnologia para uma arma de calúnia maliciosa. Neste artigo, veremos o que é exatamente essa temida tecnologia deepfake, como ela funciona, em que formas diferentes ela se apresenta e como podemos detectar ou eliminar uma deepfake.

O que é Deepfake?

Deepfake é uma das palavras-chave da tecnologia de mídia em que uma pessoa simplesmente pega um texto, imagem, vídeo ou áudio existente e, em seguida, manipula, ou seja, ‘finge’ para se parecer com outra pessoa usando inteligência artificial avançada (IA) e rede neural (NN ) tecnologia.

Quer colocar palavras abusivas na boca de seu nêmesis? Ou trocar o protagonista do filme por sua estrela favorita de Hollywood? Ou você só quer dançar como Michael Jackson? Então deepfake é o que você precisa!

O conteúdo Deepfake está crescendo exponencialmente. Infelizmente, tecnologia deepfake já foi usada repetidamente para ganhar milhagem política, para manchar a imagem de um rival ou para cometer fraude financeira.

Vamos agora dar uma olhada nos três tipos principais de deepfakes e explorar a ciência de dados que permite que eles funcionem. Também vamos nos concentrar nas tecnologias de detecção de deepfakes nas quais os pesquisadores e consultores de segurança estão trabalhando para conter o uso malicioso de deepfakes.

Texto falso

Nos primórdios da inteligência artificial (IA) e do processamento de linguagem natural (PNL), foi postulado que seria um desafio para uma máquina fazer uma atividade criativa como pintar ou escrever. Avanço rápido para 2020; com os poderosos modelos de linguagem e bibliotecas que foram construídos ao longo dos anos pelo trabalho incremental de pesquisadores e profissionais de ciência de dados, a prosa gerada por IA de primeira linha pode agora escrever com consistência e coerência humanas.

Bate-papo do conceito de robô de mão humana e mão de robô pressionando o teclado do computador (kung_tom) s

Com os poderosos modelos de linguagem e bibliotecas, ferramentas de software movidas a IA agora podem compor prosa com essência e coerência humanas. (Crédito da foto: kung_tom / Shutterstock)

GPT-2

Tome, por exemplo, GPT-2 – a última geração do sistema de geração de texto lançado pelo laboratório de pesquisa OpenAI do Vale do Silício. Essa tecnologia tem impressionado leigos e especialistas no domínio com sua capacidade de produzir texto coerente com solicitações mínimas.

Os engenheiros da OpenAI usaram mais de 8 milhões de documentos textuais que foram descartados (método de extração de dados relevantes de páginas da web) e combinados com bilhões de parâmetros para modelagem e treinamento de GPT-2 AI.

A essência do deepfake e de outras tecnologias como o deeplearning , que potencializam tecnologias artificiais, está em treinar o software para pensar e se adaptar usando dados anteriores que são alimentados por conjuntos de dados. 

Usando o GPT-2, você pode simplesmente inserir a manchete e o algoritmo de texto deepfake irá gerar uma notícia fictícia em torno dessa manchete. Ou simplesmente forneça uma primeira linha de um poema e ele retornará o verso inteiro.

Muitas empresas de mídia estão usando algoritmos deepfake juntamente com web scrapping para gerar histórias ou blogs escritos pelo próprio software.

Pesquisadores do Centro de Terrorismo, Extremismo e Contra-terrorismo (CTEC) do Instituto Middlebury de Estudos Internacionais alertam que ferramentas como o GPT-2 podem ser mal utilizadas para propagar a supremacia racial ou disseminar mensagens radicais por organizações extremistas.

Deepfakes nas redes sociais

Juntamente com a escrita de histórias ou blogs, a tecnologia deepfake também pode ser aproveitada para criar um perfil online falso que seria difícil para um usuário normal discernir. Por exemplo, um jornalista da Bloomberg (inexistente) com o nome de Maisy Kinsley em sites de redes sociais como LinkedIn e Twitter era plausivelmente um mentiroso . A foto do perfil dela parecia estranha, talvez gerada por computador. O perfil provavelmente foi criado para benefício financeiro, já que o perfil de Maisy Kinsley repetidamente tentava se conectar com os vendedores a descoberto de ações da Tesla nas redes sociais. Os vendedores a descoberto são pessoas que estão pessimistas no mercado de ações e vendem a descoberto, ou seja, vendem a ação com a convicção de que o preço da ação vai cair e, a seguir, compram a ação a um preço menor, gerando efetivamente um belo lucro.

Outro perfil com o nome de Katie Jones, que supostamente mencionava trabalhar no Centro de Estudos Estratégicos e Internacionais, foi considerado um deepfake criado com a intenção mala fide de espionagem.

Detectando deepfakes textuais

Pesquisadores do Allen Institute for Artificial Intelligence desenvolveram uma ferramenta de software chamada Grover para detectar conteúdo sintético flutuando online. Os pesquisadores afirmam que este software é capaz de detectar ensaios profundos e falsos 92% das vezes. Grover trabalha em um conjunto de teste compilado do Common Crawl, um arquivo e rastreador da web de código aberto. Da mesma forma, uma equipe de cientistas de Harvard e do laboratório MIT-IBM Watson se uniram para projetar a Giant Language Model Test Room , uma ferramenta da web que busca discernir se o texto inserido é gerado por IA.

Deepfake video

Fazer fotos e vídeos falsos é o principal arsenal dos deepfakes. É a forma mais usada de deepfake, visto que vivemos no mundo onipresente das mídias sociais, em que fotos e vídeos elucidam eventos e histórias melhor do que texto simples.

A IA moderna de geração de vídeo é mais capaz, e talvez mais perigosa, do que sua contraparte de linguagem natural. A Hyperconnect, empresa de tecnologia com sede em Seul, desenvolveu recentemente uma ferramenta chamada MarioNETte, que pode gerar vídeos falsos de figuras históricas, celebridades e políticos. Isso é feito por meio de uma reconstituição facial por outra pessoa, cujas expressões faciais são então sobrepostas à personalidade-alvo, cuja falsificação profunda será criada.

 Como o vídeo deepfake é produzido?

Este truque de vídeo emprega uma técnica chamada rede adversarial generativa ( GAN ). GAN faz parte de um ramo de aprendizado de máquina chamado redes neurais. Essas redes são projetadas para emular os processos neuronais do cérebro humano. Os programadores podem treinar redes neurais para reconhecer ou manipular uma tarefa específica.

No GAN usado para geração de deepfake, duas redes neurais são colocadas uma contra a outra para gerar uma saída realista. O objetivo de fazer isso é garantir que os deepfakes sejam criados para parecerem o mais reais possível. A essência do GAN está na rivalidade entre as duas redes neurais. No GAN, o falsificador de imagens e o detector de falsificação tentam repetidamente superar um ao outro. Ambas as redes neurais são treinadas usando o mesmo conjunto de dados.

A primeira rede é chamada de gerador, cujo trabalho é gerar uma imagem forjada usando vetores de ruído (uma lista de números aleatórios) que pareçam o mais realistas possível. A segunda rede, chamada de discriminador, determina a veracidade das imagens geradas. Ele compara a imagem forjada gerada pelo gerador com as imagens genuínas no conjunto de dados para determinar quais imagens são reais e quais são falsas. Com base nesses resultados, o gerador varia o parâmetro de geração de imagens. Este ciclo continua até que o discriminador falhe em verificar se uma imagem gerada é falsa, que é então usada na saída final. É por isso que deepfakes parecem tão assustadoramente reais.

Ícone de tecnologia vetorial Rede geradora-adversária (ShadeDesign) s

Demonstração de rede adversarial generativa (GAN) (Crédito da foto: ShadeDesign / Shutterstock)

Detectando vídeos deepfake

Os especialistas forenses em todo o mundo estão trabalhando duro para encontrar maneiras e ferramentas para identificar deepfakes, pois eles estão se tornando mais e mais convincentes a cada dia.

Por exemplo, considere este vídeo de demonstração falso de Obama lançado pelo Buzzfeed em 2018, que impressionou os espectadores em todo o mundo. Você pode conferir aqui:

https://youtu.be/cQ54GDm1eL0

Como as ferramentas de aprendizado de máquina estão alcançando as massas, ficou muito mais fácil criar vídeos falsos convincentes que poderiam ser usados ​​para disseminar notícias impulsionadas pela propaganda ou simplesmente para assediar um indivíduo visado.

O Departamento de Defesa dos EUA (DARPA) lançou uma ferramenta para detecção de deepfakes chamada Media Forensics. Originalmente, o programa foi desenvolvido para automatizar as ferramentas forenses existentes, mas com o aumento dos deepfakes, eles usaram a IA para combater os deepfakes orientados por IA. Vamos ver como isso funciona.

O vídeo resultante gerado usando deepfake tecnicamente tem diferenças perceptíveis na forma como os metadados do vídeo são distribuídos, em comparação com o original. Essas diferenças são conhecidas como vislumbres na matriz, que é o que a ferramenta de detecção de deepfake da DARPA tenta aproveitar ao detectar mídia deepfake.

Siwei Lyu, professor do departamento de ciência da computação da Universidade Estadual de Nova York, observou que rostos criados com tecnologia deepfake raramente piscam. Mesmo que o façam, não parece natural. Ele afirma que isso ocorre porque a maioria dos vídeos deepfake são treinados com imagens estáticas. Ainda assim, as fotos de uma pessoa geralmente são tiradas com os olhos abertos. Além de piscar, outros dados sobre movimentos faciais, como quando ele levanta o lábio superior enquanto conversa, como balança a cabeça etc., também podem fornecer pistas sobre se o vídeo transmitido é falso.

Deepfake audio

O poder da inteligência artificial e das redes neurais não se limita apenas a textos, imagens e vídeos. Eles podem clonar a voz de uma pessoa com a mesma facilidade. Tudo o que é necessário é um conjunto de dados da gravação de áudio de uma pessoa cuja voz precisa ser emulada. Os algoritmos Deepfake aprenderão com esse conjunto de dados e se tornarão capazes de recriar a prosódia da fala de uma pessoa-alvo.

Um software comercial está sendo lançado no mercado como Lyrebird e Deep Voice, onde você precisa falar apenas algumas frases antes que a IA se acostume com sua voz e entonação. Conforme você adiciona mais áudio de si mesmo, este software se torna poderoso o suficiente para clonar sua voz. Depois de inserir o conjunto de dados de suas próprias amostras de áudio, você pode apenas fornecer uma frase ou um parágrafo e este software deepfake narrará o texto em sua voz!

Detectando áudio deepfake

No momento, não há muitas ferramentas de áudio deepfake dedicadas disponíveis, mas os desenvolvedores e empresas de segurança cibernética estão trabalhando neste domínio para criar soluções de proteção melhores a esse respeito.

Por exemplo, no ano passado, os desenvolvedores da startup de tecnologia Resemble desenvolveram uma ferramenta de código aberto chamada Resemblyzer para a detecção de clipes de áudio deepfake. Resemblyzer usa algoritmos de aprendizado de máquina avançados para derivar representações de computação de amostras de voz para prever se são reais ou falsas. Sempre que um usuário envia um arquivo de áudio para avaliação, ele gera uma representação matemática resumindo as características únicas da amostra de voz enviada. Por meio dessa conversão, é possível que a máquina detecte se a voz é real ou produzida artificialmente por ferramentas deepfake.

A estrada à frente com deepfakes

Uma investigação feita pelos laboratórios Deeptrace no ano passado descobriu que mais de 14.000 vídeos deepfake estão à espreita online. Eles também notaram um salto de 84% em sua produção em um período de apenas sete meses. Curiosamente, mais de 90% dos vídeos deepfake são material pornográfico, em que mulheres famosas são trocadas por pornografia.

Como o deepfake está ganhando força, ele representa um sério problema de intrusão não apenas na privacidade, mas também na dignidade das pessoas. Ironicamente, para conter os deepfakes alimentados por IA, a própria inteligência artificial está sendo usada. Embora uma ‘boa’ IA esteja ajudando a identificar deepfakes, este sistema de detecção depende muito do conjunto de dados que consome para treinamento. Isso significa que eles podem funcionar bem para detectar vídeos falsos de celebridades, já que uma grande quantidade de dados está disponível sobre eles. Porém, detectar a falsificação profunda de uma pessoa discreta seria um desafio para esses sistemas de detecção.

Os gigantes da tecnologia de mídia social também estão trabalhando em sistemas de detecção de deepfake. O Facebook anunciou recentemente que está trabalhando em um sistema automatizado para identificar conteúdo deepfake em sua plataforma e eliminá-lo. Em linhas semelhantes, o Twitter propôs sinalizar deepfakes e eliminá-los se forem considerados provocativos.

Embora reconheçamos e apreciemos os esforços dessas empresas de tecnologia, só o tempo dirá o quão bem-sucedidas elas são em manter deepfakes maliciosos afastados!

Referências:

  1. Universidade Tilburg
  2. Relatório OpenAI
  3. O registro
  4. Implicações da inteligência artificial para a segurança cibernética
  5. Github
Gostou? Compartilhe com seus Amigos...