A banalização do deepfake: como 'pornô falso' com famosas virou conteúdo em sites adultos

Escrito em 09/03/2026


Atriz e ator se preparam para cena de vídeo erótico de realidade virtual Reprodução/BadoinkVR A inteligência artificial transformou a "pornografia sem consentimento" em violência sob demanda. Em 2026, o debate já não gira apenas em torno da sofisticação técnica dessas ferramentas, mas da facilidade com que plataformas, aplicativos e serviços passaram a embalar esse abuso como produto acessíve A oferta de serviços para manipular rostos circula em anúncios de sites de conteúdo adulto. Em janeiro, era possível baixar mais de 50 aplicativos com essa finalidade no Google Play, e 47 na App Store, nos Estados Unidos. Quando a ferramenta tem interface em loja de aplicativo, o abuso é embalado como conveniência. O ato deixa de ser exceção e vira consumo fácil. Em sites adultos, é comum ver anúncios oferecendo esse tipo de serviço. Empresas estão criando 'gêmeas digitais' de atrizes pornô com IA De celebridade à vizinha De celebridade à pessoa comum, a lógica é a mesma: transformar imagem íntima sintética não consensual em mercadoria. O problema não está apenas na falsidade visual, mas no modelo de negócio que vende intimidade forjada como serviço. Sem exigir conhecimento técnico, plataformas permitem que usuários enviem fotos de colegas, conhecidas ou ex-parceiras, convertendo proximidade social em valor de consumo e de circulação O modelo indica que, quanto maior a familiaridade do usuário com a vítima, maior o valor do conteúdo para quem consome ou compartilha. A adesão ao mercado se sustenta por crenças que parecem minimizar o dano, como a ideia de que figuras públicas são alvos legítimos ou de que não existe violência ou crime nos casos de manipulação de imagem. Uma pesquisa realizada no começo do ano pela University College Cork (UCC), com mais de dois mil participantes, confirmou que a crença nesses mitos aumenta a propensão de usuários a assistir, criar ou compartilhar esse tipo de material. A instituição sustenta que o combate exige mais regulação e educação do usuário. Um projeto lançado em fevereiro pelo instituto alemão ITAS-KIT, em parceria com universidadeslocais, cita estimativas de que 98% dos deepfakes são pornográficos. O dano não depende de a imagem ser tomada como verdadeira. A violência ocorre porque a agressão forja e reencena a intimidade da vítima, expondo seu corpo de maneira sexualizada sem consentimento e retirando dela o controle sobre a própria imagem. A pesquisa do ITAS-KIT conclui que as punições não avançam porque os agressores permanecem anônimos e as vítimas evitam a denúncia formal. O avanço das punições segue limitado não apenas pela ausência de resposta institucional, mas pela dificuldade de aplicar regras existentes em contextos marcados por anonimato, circulação rápida e subnotificação. Pesquisas recentes apontam que muitas vítimas evitam a denúncia formal, enquanto autores permanecem difíceis de identificar, o que enfraquece a responsabilização e mantém o mercado em funcionamento”
.