O que é um Deepfake?
Saiba o que são deepfakes, como eles são feitos, como reconhecê-los e como combatê-los.
Relatório do cenário global de ameaças do 2º semestre de 2023 Fale com um especialistaO Deepfake é uma forma de inteligência artificial (IA) que pode ser usada para criar imagens, sons e vídeos falsos convincentes. O termo “deepfake” combina o conceito de deep learning com algo falso.
O Deepfake compila imagens e sons fraudulentos e os une usando algoritmos de aprendizado de máquina. Como resultado, cria pessoas e eventos que não existem ou não aconteceram de fato.
A tecnologia Deepfake é mais notavelmente usada para fins nefastos, como enganar o público espalhando informações falsas ou propaganda. Por exemplo, vídeos falsos profundos podem mostrar um líder mundial ou celebridade dizendo algo que não disse, o que também é chamado de “fake news” que muda a opinião pública.
A tecnologia Deepfake tem aplicativos ilícitos e aceitáveis. A intenção por trás da tecnologia deepfake e como ela é importante.
A tecnologia Deepfake pode ser usada para uma ampla variedade de fins assustadores, incluindo:
Os cibercriminosos podem usar a tecnologia deepfake para criar golpes, falsas afirmações e fraudes que prejudicam e desestabilizam as organizações.
Por exemplo, um invasor pode criar um vídeo falso de um executivo sênior admitindo atividades criminosas, como crimes financeiros, ou fazendo falsas afirmações sobre a atividade da organização. Além de custar tempo e dinheiro para refutar, isso pode ter um grande impacto na marca, na reputação pública e no preço das ações da empresa.
Uma grande ameaça que o deepfake representa é a pornografia não consensual, que representa até 96% dos deepfakes na internet. A maior parte disso tem como alvo celebridades. A tecnologia Deepfake também é usada para criar instâncias falsas de pornografia de vingança.
Vídeos falsos foram usados para espalhar vídeos falsos de líderes mundiais como Donald Trump e Barack Obama, o que levanta preocupações de que possam ser usados para manipulação eleitoral. Por exemplo, havia preocupações generalizadas de que vídeos falsos afetariam a campanha eleitoral dos EUA de 2020.
A tecnologia de deepfake tem sido usada em golpes de engenharia social, com deepfakes de áudio enganando as pessoas para acreditar que indivíduos confiáveis disseram algo que não disseram. Por exemplo, odiretor executivo de uma empresa de energia do Reino Unido foi enganado para acreditar que estava falando com o diretor executivo da empresa controladora da empresa na Alemanha. A voz falsa se passava pelo diretor executivo e convencia o CEO a transferir € 220.000 para uma suposta conta bancária de um fornecedor húngaro.
O deepfake também pode ser usado para espalhar ataques automatizados de desinformação, como teorias de conspiração e teorias incorretas sobre questões políticas e sociais. Um exemplo bastante óbvio de um deepfake sendo usado dessa forma é um vídeo falso do fundador do Facebook, Mark Zuckerberg , afirmando ter “controle total de bilhões de dados de pessoas”, graças ao Spectre, a organização fictícia nos romances e filmes de James Bond.
A tecnologia Deepfake pode ser usada para criar novas identidades e roubar as identidades de pessoas reais. Os invasores usam a tecnologia para criar documentos falsos ou falsificar a voz de sua vítima, o que lhes permite criar contas ou comprar produtos fingindo ser essa pessoa.
Quando devidamente divulgados, os deepfakes são considerados como sendo usados de forma justa ou aceitável. O princípio orientador é se a existência do deepfake viola a privacidade ou os direitos de propriedade intelectual de alguém, ou se o deepfake engana consumidores, o público em geral ou indivíduos notáveis que não foram devidamente avisados.
Os deepfakes têm sido usados para paródia ou sátira em discurso político e entretenimento.
A tecnologia Deepfake tem sido usada para demonstrar os recursos do campo em relatórios de notícias e demonstrações de feiras técnicas.
Os historiadores profissionais e amadores e os entusiastas da mídia usaram tecnologias deepfake para animar fotos e pinturas antigas ou para recriar eventos históricos.
A tecnologia Deepfake tem sido usada para simular filmagens “retroativas” ou pseudo-históricas, incluindo a reimaginação de filmes, livros, pôsteres e outras mídias populares como se tivessem sido produzidas décadas antes da criação da arte original.
O termo “deepfake” entrou pela primeira vez no domínio público em 2017, quando um usuário Reddit com o nome de usuário “deepfakes” compartilhou vídeos pornográficos adulterados no site. Ele fez isso usando a tecnologia de código aberto e aprendizado profundo do Google para trocar os rostos das celebridades nos corpos de artistas pornográficos. Os deepfakes modernos são descendentes dos códigos originais que foram usados para criar esses vídeos.
Há vários métodos para criar deepfakes. Uma das mais populares é usar a rede adversária generativa (GAN), que se treina para reconhecer padrões usando algoritmos, que também podem ser usados para criar imagens falsas.
Outro método são os algoritmos de IA chamados de codificadores, que são usados em tecnologia de substituição e troca de rosto. O decodificador recupera e troca imagens de rostos, o que permite que um rosto seja sobreposto a um corpo completamente diferente. Os deepfakes usam autocodificadores, que vão além da compressão e descompressão de codificadores clássicos, permitindo que cibercriminosos criem imagens completamente novas. Os aplicativos Deepfake usam dois autocodificadores, que permitem que imagens e movimentos sejam transferidos de uma imagem para outra.
Os deepfakes podem ser detectados reconhecendo atividade incomum ou movimento não natural, incluindo:
A falta de movimento dos olhos é um bom sinal de deepfakes. Replicar o movimento natural dos olhos é desafiador, pois os olhos das pessoas geralmente seguem e reagem à pessoa com quem estão falando.
A falta de intermitência também é uma falha com vídeos deepfaked. Replicar a ação natural e humana de piscar regularmente é difícil com a tecnologia deepfake.
A tecnologia Deepfake envolve a transformação de imagens faciais, com rostos simplesmente sendo costurados de uma imagem em vez de outra. Isso normalmente resulta em expressões faciais incomuns ou não naturais.
Se o corpo de uma pessoa não parece ter uma forma natural, então é mais provável que seja falso. A tecnologia Deepfake se concentra amplamente em rostos em vez de em todo o corpo, o que leva a formas de corpo não naturais.
As imagens falsas não podem gerar características individuais realistas, como cabelos frisados ou bagunçados.
Os deepfakes não conseguem replicar as cores naturais das imagens e vídeos. Isso os leva a mostrar cores de pele anormais.
As imagens falsas muitas vezes apresentam posicionamento inconsistente ou desajeitado da cabeça e do corpo. Exemplos disso incluem movimentos bruscos e imagens distorcidas quando as pessoas se movem ou giram a cabeça.
As imagens falsas muitas vezes apresentam posicionamento inconsistente ou desajeitado da cabeça e do corpo. Exemplos disso incluem movimentos bruscos e imagens distorcidas quando as pessoas se movem ou giram a cabeça.
Semelhante aos motivos para tons de pele não naturais, as imagens falsas profundas também são propensas a descolorações, sombras perdidas e iluminação incomum.
Os vídeos Deepfake provavelmente apresentarão sincronização labial que não se alinha com as palavras que estão sendo faladas pelas pessoas no vídeo.
Pessoas ou animais podem se mover de maneiras não naturais ou partes do corpo podem desaparecer à medida que entram entre si ou em objetos.
Shallowfakes são vídeos que aparecem fora de contexto ou são editados usando ferramentas mais simples. Um bom exemplo de furacão é a fala de Nancy Pelosi, palestrante norte-americana da casa, editada para fazer sua voz parecer arrastada, implicando que ela estava bêbada.
Já foram tomadas medidas para combater deepfakes e impedir que as imagens e vídeos sejam compartilhados on-line.
O Facebook contratou pesquisadores de universidades para ajudá-lo a construir um detector de deepfake, que impõe sua proibição de deepfakes. O Twitter tem políticas em vigor para evitar conteúdo falso e está trabalhando para marcar imagens falsas que não são removidas imediatamente. O YouTube também prometeu bloquear qualquer conteúdo de deepfake relacionado à eleição e ao censo dos EUA em 2020.
Os pesquisadores têm trabalhado em soluções de ciência de dados que detectam deepfakes. Muitos deles se tornaram rapidamente ineficazes à medida que a tecnologia dos invasores evolui e cria resultados mais convincentes.
Os programas de filtragem também estão trabalhando para evitar deepfakes. O programa da empresa de IA DeepTrace atua da mesma forma que um filtro antivírus ou de spam e desvia conteúdo falso para uma zona de quarentena, enquanto o Reality Defender, da AI Foundation, visa marcar conteúdo manipulado antes que possa causar qualquer dano.
Uma das melhores maneiras de evitar deepfakes é que os funcionários entendam os sinais de imagens e vídeos falsos. As melhores práticas corporativas incluem aconselhar os usuários sobre os sinais indicadores de ataques cibernéticos e atividades on-line fraudulentas.
As leis já foram aprovadas em vários estados dos EUA para criminalizar a pornografia profunda falsa e impedir o uso da tecnologia em torno de eleições ou para prejudicar a reputação dos indivíduos. Uma legislação falsa também foi introduzida na Lei Nacional de Autorização de Defesa (NDAA) em dezembro de 2019.
O Deepfake é uma forma de inteligência artificial (IA) que pode ser usada para criar imagens, sons e vídeos falsos convincentes.
A tecnologia Deepfake é mais notavelmente usada para fins nefastos, como enganar o público espalhando informações falsas ou propaganda.
O termo “deepfake” entrou pela primeira vez no domínio público em 2017, quando um usuário Reddit com o nome de usuário “deepfakes” compartilhou vídeos pornográficos adulterados no site.
Os deepfakes podem ser detectados reconhecendo atividade incomum ou movimento não natural.
Preencha o formulário e um representante experiente entrará em contato com você em breve.