Vídeos virais de IA de ‘Stranger Things’ levantam novas preocupações sobre deepfakes

Resumidamente

  • Vídeos virais de IA substituem o rosto e corpo de um criador por atores de Stranger Things, atingindo mais de 14 milhões de visualizações.
  • Pesquisadores dizem que deepfakes de corpo inteiro removem pistas visuais usadas para detectar manipulações anteriores apenas de rosto.
  • Especialistas alertam que as mesmas ferramentas podem alimentar golpes, desinformação e outros abusos à medida que o acesso se amplia.

Uma publicação viral com um vídeo supostamente feito com Kling AI’s 2.6 Motion Control conquistou as redes sociais nesta semana, ao mostrar um clipe do criador de conteúdo brasileiro Eder Xavier trocando perfeitamente seu rosto e corpo pelos de atores de Stranger Things, Millie Bobby Brown, David Harbour e Finn Wolfhard. Os vídeos se espalharam amplamente pelas plataformas sociais e foram vistos mais de 14 milhões de vezes no X, com versões adicionais postadas desde então. Os clipes também chamaram a atenção de tecnólogos, incluindo a parceira da a16z Justine Moore, que compartilhou o vídeo do Instagram de Xavier. “Não estamos preparados para a rapidez com que as pipelines de produção vão mudar com a IA,” escreveu Moore. “Alguns dos modelos de vídeo mais recentes têm implicações imediatas para Hollywood. Trocas infinitas de personagens a um custo insignificante.” À medida que as ferramentas de geração de imagens e vídeos continuam a melhorar, com modelos mais novos como Kling, Veo 3.1 do Google, Nano Banana, FaceFusion e Sora 2 da OpenAI expandindo o acesso a mídia sintética de alta qualidade, os pesquisadores alertam que as técnicas vistas nos vídeos virais provavelmente se espalharão rapidamente além de demonstrações isoladas.

 Uma ladeira escorregadia Enquanto os espectadores ficavam impressionados com a qualidade dos vídeos de troca de corpos, especialistas alertam que isso se tornará, sem dúvida, uma ferramenta para golpes de impersonação. “As portas estão abertas. Nunca foi tão fácil roubar a semelhança digital de alguém — sua voz, seu rosto — e agora, trazê-la à vida com uma única imagem. Ninguém está seguro,” disse Emmanuelle Saliba, Diretora de Investigações da empresa de cibersegurança GetReal Security, ao Decrypt.

“Começaremos a ver abusos sistêmicos em todas as escalas, desde engenharia social um-a-um até campanhas coordenadas de desinformação e ataques diretos a negócios e instituições críticas,” afirmou. Segundo Saliba, os vídeos virais com atores de Stranger Things mostram o quão frágeis são as barreiras atuais contra abusos. “Por alguns dólares, qualquer pessoa pode gerar vídeos de corpo inteiro de um político, celebridade, CEO ou indivíduo usando uma única imagem,” ela disse. “Não há proteção padrão para a semelhança digital de uma pessoa. Nenhuma garantia de identidade.” Para Yu Chen, professor de engenharia elétrica e de computadores na Universidade de Binghamton, a troca de personagens de corpo inteiro vai além da manipulação apenas de rosto usada em ferramentas de deepfake anteriores e apresenta novos desafios. “A troca de personagem de corpo inteiro representa uma escalada significativa nas capacidades de mídia sintética,” disse Chen ao Decrypt. “Esses sistemas precisam lidar simultaneamente com estimativa de pose, rastreamento esquelético, transferência de roupas e texturas, e síntese de movimentos naturais ao longo de toda a forma humana.” Juntamente com Stranger Things, criadores também postaram vídeos de Leonard DiCaprio com troca de corpo do filme O Lobo de Wall Street.

Ainda não estamos prontos.

IA acabou de redefinir deepfakes e trocas de personagem.

E é extremamente fácil de fazer.

Exemplos selvagens. Marque nos favoritos.

[🎞️JulianoMass no IG]pic.twitter.com/fYvrnZTGL3

— Min Choi (@minchoi) 15 de janeiro de 2026

“Tecnologias de deepfake anteriores operavam principalmente dentro de um espaço de manipulação restrito, focando na substituição da região facial enquanto o restante do quadro permanecia praticamente intacto,” explicou Chen. “Métodos de detecção poderiam explorar inconsistências de limite entre o rosto sintético e o corpo original, bem como artefatos temporais quando os movimentos da cabeça não se alinhavam naturalmente com o movimento do corpo.”

Chen continuou: “Embora fraudes financeiras e golpes de impersonação continuem preocupações, vários outros vetores de uso indevido merecem atenção,” afirmou. “Imagens íntimas não consensuais representam o vetor de dano mais imediato, pois essas ferramentas reduzem a barreira técnica para criar conteúdo explícito sintético com pessoas reais.” Outras ameaças destacadas por Saliba e Chen incluem desinformação política e espionagem corporativa, com golpistas se passando por funcionários ou CEOs, divulgando clipes “vazados” fabricados, burlando controles e coletando credenciais por ataques em que “uma pessoa convincente em vídeo reduz a suspeita tempo suficiente para obter acesso a uma empresa crítica,” disse Saliba. Ainda não está claro como os estúdios ou os atores retratados nos vídeos irão responder, mas Chen afirmou que, como os clipes dependem de modelos de IA disponíveis publicamente, os desenvolvedores desempenham um papel crucial na implementação de salvaguardas. No entanto, a responsabilidade, disse ele, deve ser compartilhada entre plataformas, formuladores de políticas e usuários finais, pois colocá-la exclusivamente nos desenvolvedores pode ser inviável e sufocar usos benéficos. À medida que essas ferramentas se espalham, Chen afirmou que os pesquisadores devem priorizar modelos de detecção que identifiquem assinaturas estatísticas intrínsecas do conteúdo sintético, em vez de depender de metadados facilmente removíveis. “Plataformas devem investir tanto em pipelines de detecção automatizada quanto na capacidade de revisão humana, enquanto desenvolvem procedimentos claros de escalonamento para conteúdos de alto risco envolvendo figuras públicas ou possíveis fraudes,” afirmou, acrescentando que os formuladores de políticas devem focar em estabelecer frameworks de responsabilidade claros e requisitos de divulgação. “A democratização rápida dessas capacidades significa que os frameworks de resposta desenvolvidos hoje serão testados em grande escala em poucos meses, não anos,” concluiu Chen.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)