Na App Store e Google Play bloquearam dezenas de aplicações de IA para «despir» pessoas - ForkLog: criptomoedas, IA, singularidade, futuro

deepfake_expl-min# No App Store e Google Play bloquearam dezenas de aplicações de IA para «despir» pessoas

Nas lojas de aplicações Apple e Google, estão disponíveis dezenas de aplicações nudify, que permitem fotografar pessoas e, com a ajuda de inteligência artificial, criar imagens delas nuas. Os especialistas da TTP informaram sobre isso.

Durante a verificação, a análise revelou 55 aplicações no Google Play e 47 na App Store. Entraram em contacto com representantes das corporações para remover os serviços. A Apple removeu 28 ferramentas nudify da loja e alertou os desenvolvedores sobre a possibilidade de remoção dos seus produtos em caso de violação das regras.

Duas aplicações foram posteriormente restauradas após a resolução de todos os problemas.

Um representante do Google informou que a corporação suspendeu o funcionamento de vários programas. A empresa está a conduzir investigações após receber tais mensagens.

«Ambas as empresas afirmam que se preocupam com a segurança dos utilizadores, mas elas colocam nas suas lojas aplicações que podem transformar uma fotografia inocente de uma mulher numa imagem ofensiva de caráter sexual», — escreveram os especialistas da TTP no seu relatório.

Eles identificaram aplicações realizando buscas pelos termos «nudify» e «undress», e testaram-nas com imagens geradas por IA. Como parte do experimento, analisaram dois tipos de serviços:

  • aqueles que utilizavam inteligência artificial para renderizar imagens de mulheres sem roupa;
  • outros que sobrepunham rostos de pessoas em fotografias reveladoras.

«É completamente evidente que estas não são apenas aplicações para “trocar de roupa”. São claramente desenvolvidas para sexualizar pessoas sem o seu consentimento», — afirmou a diretora da TTP, Katie Pol.

Os analistas informaram que 14 programas foram criados na China.

«As leis da RPC sobre armazenamento de dados significam que o governo tem o direito de aceder às informações de qualquer empresa em qualquer parte do país. Portanto, se alguém criou deepfakes com a sua imagem, agora eles estão nas mãos das autoridades», — acrescentou Pol.

IA prejudicial

A inteligência artificial tornou mais fácil do que nunca a «despiração» de mulheres e a criação de pornografia deepfake. Em janeiro, o chatbot Grok esteve envolvido num escândalo devido a uma funcionalidade semelhante. Posteriormente, a empresa desativou a geração de imagens reveladoras de pessoas reais.

Em agosto de 2024, o escritório do procurador-geral de São Francisco, David Chiu, entrou com uma ação contra os proprietários de 16 dos maiores sites do mundo que permitem «despir» mulheres e meninas em fotografias com IA, sem o seu consentimento.

O documento refere-se à violação de leis estaduais e federais sobre pornografia deepfake, pornografia por vingança e materiais relacionados com violência sexual infantil.

«A IA generativa tem enormes perspetivas, mas, como acontece com todas as novas tecnologias, existem consequências imprevistas e criminosos que procuram usar a nova tecnologia para seus próprios interesses. Devemos entender claramente que isto não é inovação — é violência sexual», — afirmou Chiu.

Os sites envolvidos no processo oferecem interfaces convenientes para carregar fotografias para a criação de versões pornográficas realistas. São praticamente indistinguíveis de imagens reais, sendo usadas para extorsão, intimidação, ameaças e humilhação, segundo o comunicado.

Lembramos que, em setembro de 2024, a Microsoft anunciou uma parceria com a organização StopNCII para combater pornografia deepfake na pesquisa Bing.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar