Deepfakes usam IA para manipular a mídia, inclusive áudio ou vídeo, para criar conteúdo hiper-realista, mas totalmente falso, de pessoas reais. Embora possam ser divertidas ou até mesmo inofensivas em alguns casos, elas também podem representar ameaças reais, incluindo manipulação política, Fraude e invasão de privacidade.
O avanço da inteligência artificial e da tecnologia deepfake tornou mais fácil do que nunca a criação de conteúdo falso convincente. E com a desinformação em alta em nossa sociedade moderna politicamente polarizada, as consequências podem ser perigosas. Seja uma celebridade endossando uma causa que não apoia ou alguém enganando uma instituição financeira com uma voz falsa, deepfakes estão se tornando um problema sério no mundo digital atual.
Deepfakes políticos
Em julho de 2024, Elon Musk, CEO da Tesla e proprietário do X (antigo Twitter), compartilhou com seus 199,2 milhões de seguidores do X um vídeo deepfake da vice-presidente e candidata à presidência Kamala Harris xingando e fazendo declarações fora do personagem. Um mês depois, o ex-presidente e presidente eleito Donald Trump compartilhou com seus 7,78 milhões de seguidores em sua plataforma Truth Social uma imagem deepfake da popular cantora Taylor Swift endossando sua campanha presidencial de 2024, juntamente com várias imagens de mulheres jovens renderizadas digitalmente com camisetas "Swifties for Trump". Esses deepfakes rapidamente se tornaram virais.
Além de serem desonestos, deepfakes que retratam figuras públicas podem polarizar a opinião pública, criar o caos e até mesmo influenciar eleições - e na velocidade da luz! Um deepfake pode passar de alguns retweets para uma confusão global em questão de horas.
Embora alguns vejam esse tipo de conteúdo apenas como uma paródia engraçada e inofensiva, ao ser compartilhado por figuras públicas e políticas de grande alcance e ao retratar figuras públicas e políticas com um impacto enorme em nossas eleições (quando Taylor Swift acabou endossando um candidato, 35.000 novos eleitores se registraram em 24 horas), o potencial para confundir os eleitores é bastante alto.
Independentemente de sua posição no espectro político, deepfakes são um obstáculo infeliz na busca da verdade.
voz Deepfakes para Fraude
Não é apenas o conteúdo de vídeo que é usado na manipulação de IA .deepfakes voz surgiram como uma nova e preocupante tendência em golpes. Um caso de grande repercussão envolveu uma empresa de energia sediada no Reino Unido que foi enganada em US$ 243.000 quando os criminosos realizaram uma campanha de "vishing" ("vishing" é a abreviação de "voz phishing", a tática de enganar alvos por telefone) usando uma voz artificial tão semelhante à do chefe da matriz alemã da empresa que os funcionários não notaram a diferença. Esse incidente marca a primeira vez em que voz Fraude IA obteve uma carga útil tão alta, de acordo com o The Next Web.
Ao imitar uma voz conhecida, os golpistas conseguiram executar um roubo financeiro com uma precisão chocante. Esse tipo de ataque destaca a crescente ameaça à segurança financeira e pessoal. Quando você não pode confiar nas vozes que ouve, a verificação de identidades se torna um grande desafio para empresas e indivíduos.
A crise da pornografia deepfake
O lado sombrio da tecnologia deepfake também invade os espaços mais pessoais das pessoas. A pornografia deepfake, em que face de uma pessoa é sobreposto a um conteúdo explícito sem seu consentimento, tornou-se um problema crescente, afetando desproporcionalmente as mulheres. A política Alexandria Ocasio-Cortez foi alvo de pornografia deepfake e um estudo recente descobriu que 98% dos vídeos deepfake on-line eram pornográficos e que 99% dos alvos eram mulheres ou meninas.
Esse uso indevido da IA é uma violação grave da privacidade e da segurança pessoal. Ele não apenas mancha a reputação, mas também causa danos psicológicos. As vítimas geralmente ficam com poucos recursos legais (há muitos estados que não criminalizaram a pornografia de vingança deepfake), e os danos causados em suas vidas pessoais e profissionais podem ser irreversíveis.
Anúncios Deepfake e endossos falsos
Deepfakes também estão se infiltrando no mundo da publicidade. Esses anúncios IA podem induzir os consumidores a pensar que sua celebridade favorita está por trás de um produto ou serviço quando, na verdade, ela não está envolvida.
Esses anúncios deepfake apresentam grandes preocupações legais e éticas. Eles podem manchar a marca de uma celebridade e levar a processos judiciais por propaganda enganosa. Para os consumidores, é mais uma camada de engano para navegar em um mundo de publicidade digital já complexo.
5 dicas práticas para identificar conteúdo deepfake
Então, como você pode se proteger para não cair em um deepfake? Aqui estão algumas dicas práticas:
- Procure movimentos oculares não naturais - A tecnologia Deepfake tem dificuldade para reproduzir a taxa natural de piscadas e os movimentos oculares sutis de seres humanos reais.
- Verifique se há inconsistências na iluminação - se a iluminação da pessoa não coincidir com o plano de fundo, pode ser um deepfake.
- Observe as expressões faciais estranhas - Deepfakes geralmente têm movimentos faciais que parecem um pouco estranhos, como um sorriso que não combina com o tom da conversa.
- Ouça com atenção - se for uma voz deepfake, o tom pode ser plano ou o padrão de fala pode não parecer natural.
- Fontes de referência cruzada - se um conteúdo parecer suspeito, compare-o com fontes de notícias confiáveis para confirmar sua autenticidade.
Um futuro com Deepfakes
Deepfakes não são mais apenas coisa de ficção científica - elas estão aqui, e estão causando danos reais. De manipulação política e Fraude financeira a violações de privacidade e anúncios enganosos, o potencial de uso indevido é vasto. Como vimos nesses exemplos, a principal lição é permanecer vigilante e crítico em relação ao conteúdo que consumimos - sempre investigar as fontes e verificar com outros veículos de notícias se uma imagem ou áudio parece suspeito.
O futuro das deepfakes continuará a desafiar nossos sistemas jurídicos, padrões éticos, processos eleitorais e até mesmo a maneira como percebemos a realidade. À medida que a tecnologia por trás das deepfakes evolui, o mesmo acontece com nossas estratégias para detectar e impedir seu uso indevido.
https://www.aware.com/wp-content/uploads/2025/01/angela-enrique-webinar.jpg
Desmascarando Deepfakes: Protegendo seu negócio na era daFraude IA
FraudeIA Fraude deepfakes, vídeos GenAI e imagens sintéticas - está evoluindo rapidamente, representando um risco crescente para as organizações.
Junte-se a Enrique Caballero, especialista em Identidade digital, e Angela Diaco, diretora sênior de marketing da Aware, enquanto eles analisam as últimas tendências Fraude e revelam ferramentas e estratégias para proteger sua empresa.
Durante a sessão, exploraremos:
- Os setores mais afetados pelaFraude IA atualmente e o que está por vir.
- Como os vídeos de deepfakes e GenAI prejudicam a verificação Identidade digital.
- As tecnologias biométricas projetadas para combater essas ameaças emergentes.
- Insights sobre as classificações NIST FATE e como Aware lidera o espaço de segurança biométrica.