Recentemente aconteceu algo bastante preocupante nas redes sociais que vale a pena entender. Os deepfakes sexuais de Taylor Swift circularam massivamente por plataformas como X, Instagram e Threads, gerando uma crise de conteúdo falso que as plataformas nunca tinham visto nesta escala.



A magnitude foi impressionante: uma única imagem compartilhada no X atingiu 47 milhões de visualizações antes de suspenderem a conta. Isso dá uma ideia de como esses conteúdos se propagam quando ninguém os detém a tempo. O X decidiu ser mais agressivo e bloqueou diretamente as buscas por 'Taylor Swift' e 'IA', exibindo a mensagem 'Algo saiu mal' quando alguém tenta pesquisar. O chefe de negócios do X reconheceu que é uma medida temporária focada em 'priorizar a segurança'.

O Instagram e o Threads tomaram um caminho diferente. Permitem procurar pelo nome da artista, mas se pesquisar 'Taylor Swift IA' aparece um aviso: 'Tem certeza de que deseja continuar? O termo que você buscou às vezes está associado a atividades de organizações e indivíduos perigosos'. O problema é que esses filtros são bastante fáceis de contornar mudando a ordem das palavras.

O interessante é que isso não é um problema novo, apenas que agora está mais visível. Microsoft e Google lançaram ferramentas gratuitas que permitem criar imagens realistas por texto usando IA generativa. Satya Nadella, CEO da Microsoft, descreveu os deepfakes como 'alarmantes e terríveis', pedindo que a indústria aja rapidamente em barreiras de segurança. O sindicato de atores dos EUA (SAG-AFTRA) foi direto: qualificou as imagens falsas de Taylor Swift como 'perturbadoras, prejudiciais e profundamente preocupantes', exigindo que a distribuição desse conteúdo sem consentimento seja criminalizada.

A realidade é que os deepfakes afetam desproporcionalmente as mulheres. O grupo Reality Defender rastreou mais de vinte imagens únicas geradas por IA de Taylor Swift, muitas com conteúdo violento ou sexual. Desde 2019, estudos mostram que a maioria das vítimas de deepfakes explícitos são atrizes de Hollywood e cantoras de K-pop. A tecnologia tornou-se tão acessível que qualquer pessoa pode criar esse conteúdo com ferramentas básicas.

Swift estaria considerando ações legais contra os sites que publicaram essas imagens. Enquanto isso, a Casa Branca pediu ao Congresso que crie legislação específica. O que aconteceu com Taylor Swift é apenas a ponta do iceberg: MrBeast, Tom Hanks e outros famosos também já foram vítimas. O debate real é como impedir os deepfakes sem censurar a tecnologia legítima.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar