Lasciare che l'AI spogli le donne è una nuova forma di violenza di genere

10.03.2026

Lasciare che l'AI spogli le donne è una nuova forma di violenza di genere

Avviso importante

Questo documento e' stato tradotto automaticamente.


Mostra versione originale
Video picture

Bastano pochi secondi per distruggere la dignità di una donna online. Non perché ha scelto di condividere qualcosa di intimo. Non perché si è fidata della persona sbagliata. Ma perché qualcuno ha deciso di digitare un messaggio in uno strumento di intelligenza artificiale. Una foto normale. Completamente vestita. Presa dai social media. In pochi secondi, un algoritmo la spoglia, la sessualizza e la distribuisce a centinaia di persone.

Senza consenso. Nessun avvertimento. Non c'è modo di ritirarla una volta diffusa. Lo so perché ci sono passata, come milioni di altre donne. In soli nove giorni, il chatbot Grok ha creato e pubblicato 4,4 milioni di immagini, di cui quasi una su due era costituita da immagini sessuali di donne, evidenziando la natura pervasiva di questa violazione.

Una donna ha recentemente raccontato di essersi sentita "disumanizzata e ridotta a uno stereotipo sessuale" dopo che Grok le ha tolto digitalmente i vestiti. Ha detto: "Mi assomigliava, mi sembrava di essere io, ed è stato violento come se qualcuno avesse realmente postato una mia foto nuda". Anche se l'immagine è falsa, la violazione è reale.

Chiunque può essere una vittima. Le donne che parlano e ricoprono posizioni di responsabilità, come sindaci, amministratori delegati e leader di ONG. Donne che sono visibili ed esprimono le loro opinioni. Tutte le donne possono essere prese di mira perché la tecnologia non ha creato l'odio, ha solo imparato ad automatizzarlo.

Non si tratta di un semplice effetto collaterale delle nuove tecnologie. Si tratta di sfruttamento sessuale, ricatto e violenza contro le donne. Alcuni lo chiamano stupro digitale, e se questa parola vi mette a disagio, è proprio questo il punto. La dignità umana può essere distrutta senza che nessuno tocchi mai un corpo.

Il danno non si ferma all'immagine. Le donne diventano silenziose e si ritirano, esitando prima di postare, parlare o candidarsi. Le ragazze imparano presto che essere viste può portare a una punizione. Quando la paura spinge le donne ad abbandonare gli spazi pubblici, la nostra società non solo si piega, ma si spezza. Ogni anno migliaia di donne abbandonano le piattaforme sociali o i ruoli di leadership a causa delle molestie. Questo non solo mette a tacere le singole voci, ma priva la nostra comunità di punti di vista diversi e di potenziali leader.

La colpa non è dell'intelligenza artificiale. Questa scusa è facile ma non vera. Gli algoritmi non lavorano da soli. Le piattaforme ci guadagnano. Grok ha dichiarato di aver guadagnato 88 milioni di dollari nel terzo trimestre del 2025 e potrebbe guadagnare quasi 300 milioni di dollari quest'anno grazie agli abbonamenti e ai nuovi modelli, continuando ad alimentare questo ciclo di abusi. L'abuso si diffonde perché le tutele sono deboli, le risposte sono lente e la responsabilità continua a essere scaricata. L'Europa ha delle regole digitali, ma se non vengono applicate, sono solo di facciata. Abbiamo lasciato che i sistemi si muovessero più velocemente della giustizia e le donne ne hanno pagato il prezzo.

Anche la politica di xAI dice che le persone non possono essere mostrate "in modo pornografico" senza consenso. Eppure, queste immagini continuano a circolare per mesi. Gli esperti hanno avvertito che le piattaforme potrebbero fermare questo abuso se volessero. Il problema non è che non ci sono regole. Il problema è che non vengono applicate correttamente.

L'Europa non è impotente se non decide di esserlo. Abbiamo la legge sui servizi digitali, la legge sull'intelligenza artificiale e altre leggi, come la recente direttiva contro la violenza sulle donne. Sappiamo che i deepfake si stanno diffondendo rapidamente. Sappiamo che lo sfruttamento sessuale online è in aumento e che i bambini sono particolarmente a rischio. Le piattaforme non sono semplici spettatori, ma plasmano lo spazio e ne traggono profitto. Quando appaiono contenuti illegali, intervenire immediatamente non è facoltativo: è un nostro dovere.

È già illegale creare o condividere immagini intime non consensuali, compresi i deepfake sessuali generati dall'intelligenza artificiale. La vera questione non è se la legge esiste, ma se la usiamo.

Troppo spesso si interviene solo dopo l'indignazione pubblica. I contenuti vengono rimossi dopo che il danno è stato fatto. Ma la rimozione di un'immagine non cancella l'umiliazione, non riporta la sicurezza e non elimina la paura. La prevenzione deve avvenire prima del danno, non dopo, quando è già troppo tardi.

La Giornata internazionale della donna (8 marzo) ci costringe ad affrontare questa realtà. Se i diritti delle donne finiscono al confine digitale, allora l'uguaglianza è solo condizionata. Se il consenso può essere negoziato online, allora anche la dignità può esserlo. I diritti delle donne non svaniscono solo perché gli abusatori usano le nuove tecnologie.

Abbiamo una scelta. Possiamo chiedere che il materiale deepfake illegale venga rimosso subito e che le piattaforme affrontino conseguenze reali, oppure possiamo ammettere che il futuro digitale tratta ancora il corpo delle donne come un danno collaterale. O l'Europa è all'avanguardia per quanto riguarda la dignità umana, o accetta in silenzio un sistema che si nutre di umiliazioni.

Non possiamo accettare questo tipo di futuro.

Rimanere neutrali non è più un'opzione. Quando si ritarda l'azione, gli abusatori vincono. Quando le piattaforme esitano, il danno cresce. Quando distogliamo lo sguardo, la violenza diventa normale. In questa Giornata internazionale della donna, l'Europa deve scegliere il coraggio anziché la comodità. Agiamo ora!

Nota agli editori

Il Gruppo PPE è il più grande gruppo politico al Parlamento Europeo con 187 deputati provenienti da tutti gli Stati membri

Altri contenuti collegati