Nudi generati con l’Ai Grok? “Solo la punta dell’iceberg” (coinvolta anche la ex di Musk)
- 16 Gennaio 2026
- Popolazione
Ashley St. Clair, madre di uno dei figli di Elon Musk, ha intentato una causa contro xAi, la società di intelligenza artificiale del magnate, a causa della creazione di immagini deepfake che la ritraggono svestita. Le immagini sarebbero state prodotte da Grok, il chatbot integrato sulla piattaforma social X (ex Twitter), sollevando un’ondata di indignazione sulla sicurezza e l’etica di questi strumenti.
Per l’esperta di Oxford “il caso Grok è solo la punta dell’iceberg di un ecosistema più ampio, e ormai non più particolarmente nascosto, di misoginia e abusi online”.
Il meccanismo dell’abuso: come funziona Grok
Secondo quanto emerso dalle prime ricostruzioni dei fatti, il funzionamento di Grok è estremamente semplice e diretto: gli utenti possono caricare una foto e chiedere al chatbot di rimuovere i vestiti della persona ritratta, generando immagini in biancheria intima, abiti trasparenti o pose sessualizzate. La gravità del fatto è amplificata dalla capacità di Grok di pubblicare direttamente queste immagini su X, permettendo una diffusione immediata a un pubblico vastissimo.
Elon Musk ha dichiarato che chiunque utilizzi Grok per creare contenuti illegali subirà le medesime conseguenze di chi carica materiale illecito sul social network, ma numerosi esperti hanno sottolineato le falle del sistema. La dottoressa Federica Fedorczyk, ricercatrice presso l’Institute for Ethics in Ai dell’Università di Oxford, ha spiega che Grok è stato progettato fin dall’inizio con meno protezioni e “guardrail” rispetto ad altri assistenti Ai. Ciò che è accaduto non è un malfunzionamento isolato, ma una conseguenza di capacità presenti nel sistema fin dal lancio, nonostante i ripetuti avvertimenti.
La prospettiva dell’esperta di Oxford
Per la dottoressa Fedorczyk, i casi più noti, come quello di Ashley St. Clair, sono solo “la punta dell’iceberg” di un ecosistema più ampio di misoginia e abusi online. La creazione e la circolazione di immagini sessuali non consensuali generate dall’Ai non sono solo contenuti offensivi, ma rappresentano una vera e propria forma di abuso sessuale digitale.
Queste pratiche violano profondamente la dignità e la privacy delle vittime, causando stress emotivo, umiliazione e danni reputazionali. Inoltre, la facilità con cui tali immagini possono essere create agisce come una minaccia costante che scoraggia la partecipazione delle donne alla vita online, per timore di essere sessualizzate.
Le risposte legali e il nodo della responsabilità
Mentre il Regno Unito, attraverso l’Ofcom, l’autorità regolatrice indipendente per le società di comunicazione nel Regno Unito, ha aperto un’indagine prioritaria per valutare se X abbia mitigato adeguatamente i rischi, la piattaforma ha risposto limitando la creazione di immagini ai soli abbonati paganti. Secondo l’esperta di Oxford, questa mossa sembra implicare paradossalmente che la creazione di immagini sessuali non consensuali sia diventata un “servizio premium” riservato solo a chi può permetterselo.
A livello internazionale, quadri giuridici come la Direttiva Ue, il Take It Down Act negli Stati Uniti e l’Online Safety Act nel Regno Unito riconoscono già la gravità di queste condotte. Tuttavia, per l’esperta di Oxford criminalizzare solo l’esito finale non è più sufficiente.
Una tutela che deve partire dal design
La tutela dei diritti nell’era dell’Ai, quindi, richiede un cambio di paradigma. “I veri colpevoli non sono le macchine, ma gli esseri umani, e la tecnologia non fa che rispecchiare la violenza umana”, ha affermato la ricercatrice. La soluzione non può limitarsi alla moderazione a valle, ma deve prevedere una mitigazione del rischio già in fase di progettazione, per impedire che tali immagini vengano create.
Senza una chiara volontà politica e sociale di imporre confini rigidi, il ciclo di abusi digitali è destinato a persistere, minando il diritto fondamentale alla sicurezza e alla dignità nello spazio digitale.

