Dejar que AI desnude a las mujeres es una nueva forma de violencia de género

10.03.2026

Dejar que AI desnude a las mujeres es una nueva forma de violencia de género

Aviso importante

Este documento ha sido traducido automáticamente.


Mostrar versión original
Vídeo picture

Se necesitan segundos para destruir la dignidad de una mujer en Internet. No porque haya decidido compartir algo íntimo. No porque confiara en la persona equivocada. Sino porque alguien decidió escribir un mensaje en una herramienta de inteligencia artificial. Una foto normal. Completamente vestida. Tomada de las redes sociales. En cuestión de segundos, un algoritmo la desnuda, la sexualiza y la distribuye a cientos de personas.

No hay consentimiento. No hay advertencia. No hay forma de retirarla una vez que se ha difundido. Lo sé porque he pasado por ello, como millones de mujeres. En sólo nueve días, el chatbot Grok creó y publicó 4,4 millones de imágenes, de las cuales casi una de cada dos eran imágenes sexualizadas de mujeres, lo que pone de manifiesto el carácter generalizado de esta violación.

Una mujer dijo recientemente que se sintió "deshumanizada y reducida a un estereotipo sexual" después de que Grok le quitara digitalmente la ropa. Dijo: "Se parecía a mí, y se sentía como yo, y me sentí tan violada como si alguien hubiera publicado realmente una foto mía desnuda". Aunque la imagen sea falsa, la violación es real.

Cualquiera puede ser víctima. Las mujeres que alzan la voz y ocupan puestos de responsabilidad, como alcaldesas, consejeras delegadas y dirigentes de ONG. Mujeres que son visibles y expresan sus opiniones. Todas las mujeres pueden ser objeto de ataques porque la tecnología no ha creado el odio; sólo ha aprendido a automatizarlo.

No se trata simplemente de un efecto secundario de las nuevas tecnologías. Es explotación sexual, chantaje y violencia contra las mujeres. Algunos lo llaman violación digital, y si esa palabra te incomoda, esa es la cuestión. Se puede destruir la dignidad humana sin que nadie toque un cuerpo.

El daño no termina con la imagen. Las mujeres callan y se retraen, dudan antes de publicar, hablar o presentarse como candidatas. Las jóvenes aprenden pronto que ser vistas puede acarrear un castigo. Cuando el miedo expulsa a las mujeres de los espacios públicos, nuestra sociedad no sólo se doblega, sino que se resquebraja. Miles de mujeres abandonan las plataformas sociales o las funciones de liderazgo cada año debido al acoso. Esto no sólo silencia las voces individuales, sino que también priva a nuestra comunidad de puntos de vista variados y de líderes potenciales.

No, la inteligencia artificial no es la culpable. Esa excusa es fácil pero no es cierta. Los algoritmos no funcionan solos. Las plataformas ganan dinero con ello. Al parecer, Grok ganó 88 millones de dólares en el tercer trimestre de 2025 y podría ganar casi 300 millones este año con suscripciones y nuevos modelos, con lo que seguiría alimentando este ciclo de abusos. Los abusos se extienden porque las salvaguardias son débiles, las respuestas lentas y la responsabilidad se va pasando de unos a otros. Europa tiene normas digitales, pero si no se hacen cumplir, no sirven más que para aparentar. Hemos dejado que los sistemas avancen más rápido que la justicia, y las mujeres pagan el precio.

Incluso la propia política de xAI dice que no se puede mostrar a las personas "de forma pornográfica" sin consentimiento. Aun así, estas imágenes siguen circulando durante meses. Los expertos han advertido de que las plataformas detendrían este abuso si quisieran. El problema no es que no haya normas. El problema es que no se aplican correctamente.

Europa no es impotente a menos que decida serlo. Tenemos la Ley de Servicios Digitales, la Ley de Inteligencia Artificial y otras leyes, como la reciente directiva que combate la violencia contra las mujeres. Sabemos que los deepfakes se extienden rápidamente. Sabemos que la explotación sexual en línea está aumentando y que los niños están especialmente en peligro. Las plataformas no son meros espectadores, sino que configuran el espacio y se benefician de él. Cuando aparecen contenidos ilegales, actuar de inmediato no es opcional: es nuestro deber.

Ya es ilegal crear o compartir imágenes íntimas no consentidas, incluidos los deepfakes sexuales generados por IA. La verdadera cuestión no es si existe la ley, sino si la utilizamos.

Con demasiada frecuencia, sólo se actúa tras la indignación pública. El contenido se retira cuando ya se ha hecho daño. Pero eliminar una imagen no borra la humillación, ni devuelve la seguridad, ni quita el miedo. La prevención debe venir antes del daño, no después, cuando ya es demasiado tarde.

El Día Internacional de la Mujer (8 de marzo) nos obliga a afrontar esta realidad. Si los derechos de la mujer terminan en la frontera digital, entonces la igualdad es sólo condicional. Si el consentimiento puede negociarse en línea, entonces la dignidad también. Los derechos de las mujeres no desaparecen porque los agresores utilicen las nuevas tecnologías.

Podemos elegir. Podemos exigir que se retire de inmediato el material ilegal deepfake y que las plataformas afronten consecuencias reales, o podemos admitir que el futuro digital sigue tratando los cuerpos de las mujeres como daños colaterales. O Europa lidera la dignidad humana, o acepta en silencio un sistema que se alimenta de la humillación.

No podemos aceptar ese tipo de futuro.

Permanecer neutrales ya no es una opción. Cuando se retrasa la acción, los agresores ganan. Cuando las plataformas dudan, el daño crece. Cuando miramos hacia otro lado, la violencia se convierte en algo normal. Este Día Internacional de la Mujer, Europa debe elegir la valentía frente a la comodidad. ¡Actuemos ya!

Notas a los editores

El Grupo PPE es el grupo político más numeroso del Parlamento Europeo con 187 Miembros de todos los países

Contenido relacionado