Quando l’intelligenza artificiale trasforma l’identità dei minori in materiale di abuso
- 6 Febbraio 2026
- Giovani
Le immagini circolano senza preavviso, generate in pochi secondi, difficili da rintracciare una volta immesse nei circuiti digitali. Volti di bambini e adolescenti vengono sottratti al contesto originale, rielaborati, inseriti in corpi che non sono i loro, piegati a un uso sessuale che non ha bisogno di contatto fisico per produrre conseguenze. È una forma di abuso che nasce da strumenti sempre più accessibili e che trova terreno fertile nella velocità delle piattaforme.
Il salto di scala è avvenuto quando l’intelligenza artificiale generativa ha smesso di essere appannaggio di laboratori specializzati ed è diventata un servizio comune. In quel passaggio, la produzione di immagini sessualizzate di minori non è rimasta confinata agli ambienti criminali tradizionali, ma ha iniziato a emergere anche nella quotidianità, nelle scuole, nei gruppi chiusi, nelle chat tra adolescenti. È in questo contesto che l’allarme lanciato dall’Unicef assume una portata che va oltre la denuncia: fotografa un cambiamento strutturale.
Quando il deepfake rientra a pieno titolo nell’abuso
Per l’Unicef non esistono zone grigie: le immagini sessualizzate di bambini generate o manipolate con l’intelligenza artificiale sono materiale di abuso sessuale su minori. Il punto non è la veridicità dell’immagine, ma l’uso dell’identità di un bambino per produrre contenuti sessuali. “L’abuso tramite deepfake è un abuso, e non c’è nulla di falso nel danno che provoca”, afferma l’organizzazione, chiarendo che la vittimizzazione è diretta ogni volta che un volto reale viene coinvolto, anche se il corpo rappresentato non esiste.
I dati raccolti da Unicef insieme a Ecpat e Interpol in 11 Paesi danno una misura concreta del fenomeno. Almeno 1,2 milioni di bambini hanno dichiarato che le proprie immagini sono state manipolate in deepfake sessualmente espliciti nell’ultimo anno. In alcuni contesti nazionali il rapporto arriva a un minore su 25: una presenza che, tradotta in termini scolastici, equivale a uno studente per classe. Non si tratta solo di produzione, ma anche di percezione del rischio. In diversi Paesi fino a due terzi dei minori intervistati hanno detto di temere che l’intelligenza artificiale possa essere usata per creare immagini o video sessuali falsi che li riguardano.
L’Unicef sottolinea che il problema non si esaurisce nella singola vittima identificabile. Anche il materiale generato senza un bambino riconoscibile contribuisce a normalizzare lo sfruttamento sessuale dei minori, alimenta la domanda di contenuti illegali e complica il lavoro delle forze dell’ordine. “Il danno causato dall’abuso dei deepfake è reale e urgente – conclude l’organizzazione – i bambini non possono aspettare che la legge si adegui”. È una presa di posizione che sposta il tema dal piano tecnologico a quello dei diritti, chiamando in causa responsabilità pubbliche e private.
L’Ai entra nelle dinamiche quotidiane
L’allarme internazionale trova riscontro in episodi che non appartengono più soltanto alle cronache giudiziarie legate ai grandi network criminali. In Italia, come in altri Paesi europei, sono emersi casi di studenti che hanno utilizzato applicazioni di intelligenza artificiale per “nudificare” digitalmente le compagne di classe, partendo da fotografie reali reperite sui social o scambiate in contesti privati. Il meccanismo è semplice: si carica un’immagine, si impartisce un comando, si ottiene una versione sessualizzata pronta per essere condivisa.
Questi episodi mettono in luce un elemento nuovo rispetto al passato. La produzione di immagini abusive non richiede più competenze tecniche avanzate né infrastrutture complesse. Strumenti accessibili, spesso promossi come giochi o applicazioni di intrattenimento, consentono a minorenni di generare contenuti che rientrano a pieno titolo nella definizione di abuso sessuale su minori. La distanza tra autore e vittima si riduce drasticamente, così come quella tra gesto e conseguenze.
Il contesto scolastico amplifica l’impatto. Le immagini circolano all’interno di comunità ristrette, dove le vittime sono riconoscibili e il danno si traduce in isolamento, stigma, perdita di controllo sulla propria immagine. Anche quando il contenuto viene rimosso, la percezione di esposizione resta. È in questo spazio che si misura il limite degli strumenti disciplinari tradizionali e delle risposte esclusivamente educative, chiamate a confrontarsi con una tecnologia che anticipa le regole.
L’elemento generazionale è centrale. I dati Unicef mostrano un alto livello di consapevolezza tra i minori, ma la consapevolezza non coincide con la capacità di protezione. La disponibilità di strumenti di Ai nelle mani degli adolescenti crea un cortocircuito tra curiosità, pressione del gruppo e sottovalutazione delle conseguenze legali e personali. La produzione di deepfake sessualizzati diventa così una forma di violenza che nasce all’interno delle stesse reti sociali delle vittime.
Le piattaforme sotto esame e il ruolo della regolazione europea
La diffusione di contenuti manipolati a sfondo sessuale ha portato la regolazione europea a spostare l’attenzione dai singoli utenti alle responsabilità sistemiche delle piattaforme. La Commissione Europea ha avviato una nuova indagine su X, concentrata sull’integrazione delle funzionalità di Grok nel social network e sull’impatto del sistema di raccomandazione dei contenuti. L’inchiesta, condotta nell’ambito del Digital Services Act, mira a verificare se siano stati valutati e mitigati i rischi legati alla diffusione di contenuti illegali, comprese “immagini manipolate a sfondo sessuale, compresi contenuti che potrebbero costituire materiale di abuso sessuale su minori”.
Secondo la Commissione, questi rischi “sembrano essersi concretizzati, esponendo i cittadini dell’Ue a gravi danni”. L’attenzione non riguarda solo la presenza dei contenuti, ma anche gli effetti sistemici: la capacità degli algoritmi di amplificarli, la rapidità della diffusione, le conseguenze sul benessere fisico e mentale.
La posizione dell’esecutivo europeo è stata ribadita anche sul piano politico. La protezione dei minori online è indicata come una priorità dalla presidente della Commissione, Ursula von der Leyen, che ha più volte affermato che non si può accettare online ciò che non sarebbe tollerato offline. “Non cederemo il consenso e la protezione dei minori alle aziende tecnologiche, perché siano violati e monetizzati”, ha dichiarato, aggiungendo che “il danno causato da queste immagini illegali è molto reale” e che pratiche come la svestizione digitale di donne e bambini non possono essere ricondotte alla libertà di espressione.
L’indagine su X prevede la possibilità di misure provvisorie e, in caso di violazioni accertate, decisioni di non conformità. La collaborazione con il coordinatore irlandese dei servizi digitali indica la volontà di un approccio coordinato, in cui la responsabilità delle piattaforme diventa parte integrante della risposta al fenomeno.

