Embora a maior parte da atenção do público em torno dos deepfakes tenha se concentrado em grandes campanhas de propaganda, a nova tecnologia problemática é muito mais insidiosa, de acordo com um novo relatório de inteligência artificial (IA) e especialistas em política externa da Northwestern University e da Brookings Institution.

No novo relatório, os autores discutem vídeos, imagens e áudio deepfake, bem como seus desafios de segurança relacionados. Os pesquisadores preveem que a tecnologia está prestes a ser usada muito mais amplamente, inclusive em operações militares e de inteligência direcionadas.

Em última análise, os especialistas fazem recomendações aos funcionários de segurança e formuladores de políticas sobre como lidar com a nova tecnologia inquietante. Entre suas recomendações, os autores enfatizam a necessidade de os Estados Unidos e seus aliados desenvolverem um código de conduta para o uso governamental de deepfakes.

O relatório da pesquisa, “Deepfakes e conflito internacional”, foi publicado este mês pela Brookings.

“A facilidade com que os deepfakes podem ser desenvolvidos para indivíduos e alvos específicos, bem como seu movimento rápido – mais recentemente por meio de uma forma de IA conhecida como difusão estável – apontam para um mundo em que todos os atores estatais e não estatais terão a capacidade de implantar deepfakes em suas operações de segurança e inteligência”, escrevem os autores. “Oficiais de segurança e formuladores de políticas precisarão se preparar adequadamente.”

Os co-autores da Northwestern incluem o especialista em IA e segurança VS Subrahmanian, o professor Walter P. Murphy de ciência da computação na McCormick School of Engineering da Northwestern e membro do corpo docente Buffett no Buffett Institute of Global Affairs, e Chongyang Gao, um Ph.D. estudante no laboratório de Subrahmanian. Os co-autores do Brookings Institute incluem Daniel L. Bynam e Chris Meserole.

Deepfakes exigem ‘pouca dificuldade’

Líder do Northwestern Security and AI Lab, Subrahmanian e seu aluno Gao desenvolveram anteriormente o TREAD (Redução do Terrorismo com Deepfakes de Inteligência Artificial), um novo algoritmo que os pesquisadores podem usar para gerar seus próprios vídeos deepfake. Ao criar deepfakes convincentes, os pesquisadores podem entender melhor a tecnologia no contexto da segurança.

Usando o TREAD, Subrahmanian e sua equipe criaram amostras de vídeos deepfake do falecido terrorista do Estado Islâmico Abu Mohammed al-Adnani. Enquanto o vídeo resultante parece e soa como al-Adnani – com expressões faciais altamente realistas e áudio – ele está realmente falando palavras do presidente sírio, Bashar al-Assad.

Os pesquisadores criaram o vídeo realista em poucas horas. O processo foi tão direto que Subrahmanian e seus coautores disseram que os militares e as agências de segurança deveriam presumir que os rivais são capazes de gerar vídeos deepfake de qualquer oficial ou líder em minutos.

“Qualquer pessoa com experiência razoável em aprendizado de máquina pode – com algum trabalho sistemático e o hardware certo – gerar vídeos deepfake em escala, construindo modelos semelhantes ao TREAD”, escrevem os autores. “As agências de inteligência de praticamente qualquer país, o que certamente inclui adversários dos EUA, podem fazer isso com pouca dificuldade.”

Evitando ‘jogos de gato e rato’

Os autores acreditam que atores estatais e não estatais aproveitarão os deepfakes para fortalecer os esforços contínuos de desinformação. Os deepfakes podem ajudar a alimentar conflitos ao legitimar a guerra, semear confusão, minar o apoio popular, polarizar sociedades, desacreditar líderes e muito mais. A curto prazo, os especialistas em segurança e inteligência podem neutralizar os deepfakes projetando e treinando algoritmos para identificar vídeos, imagens e áudio potencialmente falsos. Esta abordagem, no entanto, é improvável que permaneça eficaz a longo prazo.

“O resultado será um jogo de gato e rato semelhante ao visto com malware: quando as empresas de segurança cibernética descobrem um novo tipo de malware e desenvolvem assinaturas para detectá-lo, os desenvolvedores de malware fazem ‘ajustes’ para escapar do detector”, disseram os autores. . “O ciclo detectar-evadir-detectar-evadir ocorre ao longo do tempo… Eventualmente, podemos chegar a um ponto final em que a detecção se torna inviável ou computacionalmente intensiva demais para ser realizada rapidamente e em escala.”

Para estratégias de longo prazo, os autores do relatório fazem várias recomendações:

  • Educar o público em geral para aumentar a alfabetização digital e o raciocínio crítico
  • Desenvolva sistemas capazes de rastrear a movimentação de ativos digitais documentando cada pessoa ou organização que lida com o ativo
  • Incentive jornalistas e analistas de inteligência a desacelerar e verificar as informações antes de incluí-las em artigos publicados. “Da mesma forma, os jornalistas podem emular produtos de inteligência que discutem ‘níveis de confiança’ em relação aos julgamentos.”
  • Use informações de fontes separadas, como códigos de verificação, para confirmar a legitimidade dos ativos digitais

Acima de tudo, os autores argumentam que o governo deve promulgar políticas que ofereçam mecanismos robustos de supervisão e responsabilidade para governar a geração e distribuição de conteúdo deepfake. Se os Estados Unidos ou seus aliados quiserem “combater fogo com fogo” criando seus próprios deepfakes, então as políticas primeiro precisam ser acordadas e postas em prática. Os autores dizem que isso pode incluir o estabelecimento de um “Processo de ações Deepfakes”, modelado a partir de processos semelhantes para segurança cibernética.

“A decisão de gerar e usar deepfakes não deve ser tomada de ânimo leve e não sem uma consideração cuidadosa das compensações”, escrevem os autores. “O uso de deepfakes, especialmente projetados para atacar alvos de alto valor em cenários de conflito, afetará uma ampla gama de escritórios e agências governamentais. Cada parte interessada deve ter a oportunidade de oferecer informações, conforme necessário e apropriado. baseado em um processo deliberativo é o melhor caminho para garantir que os governos democráticos usem deepfakes de forma responsável.”

Outras informações:

Com informações de Science Daily.