Deixar a IA despir as mulheres é uma nova forma de violência de gênero

10.03.2026

Deixar a IA despir as mulheres é uma nova forma de violência de gênero

Aviso importante

Este documento foi traduzido automaticamente.


Mostrar versão original
Vídeo picture

São necessários segundos para destruir a dignidade de uma mulher on-line. Não porque ela decidiu compartilhar algo íntimo. Não porque ela confiou na pessoa errada. Mas porque alguém decidiu digitar um prompt em uma ferramenta de inteligência artificial. Uma foto comum. Totalmente vestida. Tirada da mídia social. Em poucos segundos, um algoritmo a tira, sexualiza e a distribui para centenas de pessoas.

Não há consentimento. Nenhum aviso. Não há como retirá-la depois que ela se espalha. Eu sei porque passei por isso, assim como milhões de outras mulheres. Em apenas nove dias, o chatbot Grok criou e publicou 4,4 milhões de imagens, das quais quase uma em cada duas eram imagens sexualizadas de mulheres, destacando a natureza generalizada dessa violação.

Uma mulher compartilhou recentemente que se sentiu "desumanizada e reduzida a um estereótipo sexual" depois que a Grok removeu digitalmente suas roupas. Ela disse: "Parecia comigo, e me senti como eu, e foi tão violador quanto se alguém tivesse realmente publicado uma foto minha nua". Mesmo que a imagem seja falsa, a violação é real.

Qualquer pessoa pode ser uma vítima. Mulheres que se manifestam e ocupam cargos de responsabilidade, como prefeitas, CEOs e líderes de ONGs. Mulheres que são visíveis e expressam suas opiniões. Todas as mulheres podem ser alvo porque a tecnologia não criou o ódio; ela apenas aprendeu a automatizá-lo.

Isso não é simplesmente um efeito colateral da nova tecnologia. Trata-se de exploração sexual, chantagem e violência contra as mulheres. Alguns chamam isso de estupro digital e, se essa palavra o deixa desconfortável, esse é o ponto. A dignidade humana pode ser destruída sem que ninguém toque em um corpo.

O dano não termina com a imagem. As mulheres se calam e se retraem, hesitando antes de postar, falar ou concorrer a cargos públicos. As meninas aprendem cedo que ser vista pode levar à punição. Quando o medo expulsa as mulheres dos espaços públicos, nossa sociedade não apenas se curva, ela se quebra. Milhares de mulheres deixam as plataformas sociais ou abandonam cargos de liderança anualmente devido ao assédio. Isso não apenas silencia as vozes individuais, mas também priva nossa comunidade de pontos de vista variados e líderes em potencial.

Não, a inteligência artificial não é a culpada. Essa desculpa é fácil, mas não é verdadeira. Os algoritmos não funcionam sozinhos. As plataformas ganham dinheiro com isso. Segundo informações, a Grok faturou US$ 88 milhões no terceiro trimestre de 2025 e pode faturar quase US$ 300 milhões este ano com assinaturas e novos modelos, continuando a alimentar esse ciclo de abuso. O abuso se espalha porque as proteções são fracas, as respostas são lentas e a responsabilidade continua sendo transferida. A Europa tem regras digitais, mas se elas não forem aplicadas, serão apenas para exibição. Deixamos que os sistemas se movessem mais rápido do que a justiça, e as mulheres acabam pagando o preço.

Até mesmo a própria política da xAI diz que as pessoas não podem ser mostradas "de forma pornográfica" sem consentimento. Ainda assim, essas imagens continuam circulando por meses. Os especialistas alertaram que as plataformas poderiam acabar com esse abuso se quisessem. O problema não é o fato de não haver regras. O problema é que elas não são aplicadas adequadamente.

A Europa não é impotente, a menos que decida ser. Temos a Lei de Serviços Digitais, a Lei de Inteligência Artificial e outras leis, como a recente diretriz de combate à violência contra a mulher. Sabemos que os deepfakes estão se espalhando rapidamente. Sabemos que a exploração sexual on-line está aumentando, e as crianças estão especialmente em risco. As plataformas não são apenas espectadoras; elas moldam o espaço e lucram com ele. Quando o conteúdo ilegal aparece, tomar medidas imediatas não é opcional - é nosso dever.

Já é ilegal criar ou compartilhar imagens íntimas não consensuais, incluindo deepfakes sexuais gerados por IA. A verdadeira questão não é se a lei existe, mas se a usamos.

Com muita frequência, a ação só acontece após a indignação pública. O conteúdo é retirado após o dano ter sido causado. Mas a remoção de uma imagem não apaga a humilhação, não traz de volta a segurança nem elimina o medo. A prevenção deve vir antes do dano, não depois, quando já é tarde demais.

O Dia Internacional da Mulher (8 de março) nos obriga a encarar essa realidade. Se os direitos das mulheres terminam na fronteira digital, então a igualdade é apenas condicional. Se o consentimento pode ser negociado on-line, então a dignidade também pode. Os direitos das mulheres não desaparecem só porque os agressores usam novas tecnologias.

Nós temos uma escolha. Podemos exigir que o material ilegal de deepfake seja removido imediatamente e que as plataformas enfrentem consequências reais, ou podemos admitir que o futuro digital ainda trata os corpos das mulheres como danos colaterais. Ou a Europa lidera em termos de dignidade humana ou aceita silenciosamente um sistema que se alimenta da humilhação.

Não podemos aceitar esse tipo de futuro.

Manter-se neutro não é mais uma opção. Quando a ação é adiada, os abusadores vencem. Quando as plataformas hesitam, o dano aumenta. Quando desviamos o olhar, a violência se torna normal. Neste Dia Internacional da Mulher, a Europa deve escolher a coragem em vez do conforto. Vamos agir agora!

Notas aos editores

O Grupo PPE é o maior grupo político no Parlamento Europeu, composto por 187 deputados de todos os Estados Membros

Outro conteúdo relacionado