Pedopornografia, nuove norme Ue: una questione di privacy?
- 28/11/2023
- Popolazione
La pedopornografia è un problema che necessita la massima attenzione. Ogni anno ancora troppi bambini sono oggetti del desiderio sessuale di pedofili in tutto il mondo. La norma codicistica italiana intende come pedopornografico quel materiale che “ritrae o rappresenta visivamente un minore implicato o coinvolto in una condotta sessualmente esplicita, quale può essere anche la semplice esibizione lasciva dei genitali o della regione pubica”. E con la diffusione del mezzo tecnologico la cosa è andata solo peggiorando, portando ad un grave incremento del fenomeno che vede ogni anno troppi minori coinvolti trasformati in protagonisti inconsapevoli di questo mondo.
Il Parlamento europeo vuole stabilire norme efficaci per prevenire e combattere gli abusi sessuali sui minori online, proteggendo al tempo stesso la privacy. Nel 2022 si è registrato un triste primato storico con oltre 32 milioni di segnalazioni di sospetti abusi sessuali su minori online. Ed è per questo motivo che negli scorsi giorni, la Commissione per le libertà civili del Parlamento (LIBE) ha adottato una relazione sulla proposta di regolamento volto a prevenire e combattere gli abusi sessuali sui minori.
“L’abuso sessuale di minori è un fenomeno trasversale che assume dimensioni globali , in una società dove l’interconnessione tra le persone diventa una regola e dove i confini spazio-temporali diventano sempre più labili- ha spiegato il dipartimento di Polizia postale e delle Comunicazioni -. In un panorama di tale complessità diventa fondamentale promuovere un modello operativo improntato sulla sinergia, la compartecipazione e la condivisione, al fine di rendere l’opera di tutela e di messa in sicurezza di bambini e ragazzi una realtà concreta. La complessità della minaccia cibernetica che può aggredire l’infanzia e l’adolescenza impone inoltre un continuo affinamento delle strategie utili alla migliore gestione dei casi”.
Le norme Ue: c’entra l’intelligenza artificiale
La legislazione proposta prevede che i fornitori di servizi di hosting e di comunicazioni interpersonali debbano condurre obbligatoriamente, e non più volontariamente, valutazioni di rischio volte all’identificazione della potenziale presenza di contenuti sessuali che coinvolgono minori sui loro servizi. Identificato il livello di rischio, dovranno implementare le misure di mitigazione per fronteggiarlo. Il regolamento fornisce, a tal proposito, un ampio elenco di misure.
Tra queste:
- il principio della sicurezza fin dalla progettazione (sviluppare prodotti o servizi in modo da evitare potenziali danni),
- controlli parentali obbligatori,
- l’istituzione di meccanismi di segnalazione degli utenti
- l’uso di sistemi di verifica dell’età qualora sussista un rischio di adescamento dei minori.
Un ulteriore obbligo riguarderà quello di introdurre misure di mitigazione specifiche per i servizi rivolti direttamente ai minori. Il provvedimento è rivolto anche alle piattaforme utilizzate principalmente per la diffusione di contenuti pornografici e servizi di chat all’interno dei giochi. Le disposizioni prevedono una procedura semplificata per piccole imprese.
“Qualsiasi altro sistema di intelligenza artificiale” è la dicitura aggiunta negli emendamenti con cui si intende paragonare questo strumento, oggi al centro del dibattito della sostenibilità digitale e sociale, ai già noti motori di ricerca. Con l’uso dell’intelligenza artificiale, infatti, è stato possibile realizzare contenuti pedopornografici molto verosimili o alterare immagini e video reali di minori e trasformarli in contenuti sessualmente violenti. La stessa intelligenza artificiale, invece, è protagonista anche di un programma di impiego socialmente utile e, cioè, riconoscere e rimuovere tali contenuti dal web, nell’ottica di un utilizzo migliore di questo strumento.
Privacy, a che punto siamo?
Uno dei grandi dibattiti che si innesca quando si parla di obblighi relativi al controllo dei contenuti in rete, però, è quello della privacy. Una delle sfide maggiori, infatti, è quella di raggiungere un punto di equilibrio tra ciò che è ammesso e ciò che è ammissibile e, in sintesi: cosa non lo è affatto. Gli eurodeputati hanno una posizione contraria alla scansione diffusa del web, al monitoraggio generalizzato delle comunicazioni private o alla creazione di backdoor e, cioè, accessi remoti per vie indirette, nelle app con finalità di indebolire la crittografia.
Al momento, nonostante la “paura” di un controllo di massa, è arrivato il primo via libera in europarlamento e il testo è stato approvato con 51 voti favorevoli, due contrari e un astenuto. Le autorità giudiziarie hanno avuto il consenso di applicare azioni limitate nel tempo e come ultima risorsa, in caso di richiesta di rimozione di materiale pedopornografico. Un Centro Ue per la protezione dei minori contribuirà all’attuazione di tali norme e supporterà i fornitori di servizi internet nella lotta agli abusi.
Il fenomeno
Solo nei primi tre mesi del 2023 sono stati 56 i minori di età inferiore ai 13 anni adescati in rete. Altri 34 sono adolescenti tra i 14 e i 16 anni, 299 i soggetti denunciati e 12 gli arresti, nello stesso periodo. Questi solo alcuni dei dati dell’ultimo anno, ma se si guarda al triennio 2020-2022 si raggiungono cifre che superano gli ottocento minori di età inferiore ai 13 anni e 132 le persone che hanno denunciato un’estorsione sessuale (sextortion) che riguarda, cioè, il ricatto più o meno esplicito in merito a quei contenuti autoprodotti di cui si minaccia la divulgazione in rete e sui social, ad esempio.
- Europa Giovane6
- Famiglia203
- Fertilità132
- Giovani213
- Mondo184
- Podcast1
- Popolazione424
- Talk | 13 dicembre 20239
- Talk | La 'cura' delle persone5
- Trend85
- Video27
- Welfare209