L’intelligenza artificiale ‘pensa’ al maschile?
- 23/05/2025
- Popolazione
Chiedi a un modello di intelligenza artificiale di raffigurare un chirurgo, un ceo o un ingegnere, e con grande probabilità restituirà l’immagine di un uomo. Stessa scena, stesso copione: pelle chiara, espressione seria, cravatta o camice. Al contrario, ruoli come “infermiere” o “insegnante d’asilo” tendono ad essere rappresentati al femminile. Questi automatismi non nascono da un’intenzione esplicita, ma da come l’Ai è addestrata: attraverso dati che riflettono stereotipi storicamente radicati.
Uno studio dell’Unesco ha rilevato che i modelli linguistici generativi tendono ad associare le donne a ruoli familiari e domestici quattro volte più spesso rispetto agli uomini. Anche nel linguaggio, il divario è evidente: i pronomi maschili sono più frequenti, e parole come “leader” o “ambizioso” sono più spesso legate a nomi maschili.
Quanto alla rappresentazione visiva, l’Ai genera immagini in cui le donne appaiono più giovani, sorridenti e remissive, mentre gli uomini sono raffigurati più anziani, seri e autorevoli. È quanto emerge da un’analisi della University of Washington. A confermare la tendenza, uno studio dell’University of Wisconsin-Madison (2023) ha analizzato 15.300 immagini generate da DALL·E 2 su 153 professioni: le donne risultavano sottorappresentate nei ruoli di prestigio e inquadrate con posture sottomesse e sorrisi accentuati.
Le implicazioni si estendono anche al lavoro. Secondo un rapporto dell’Ilo, il 9,6% dei lavori svolti da donne nei paesi a reddito alto è a rischio di automazione da parte dell’Ai, contro appena il 3,5% di quelli svolti da uomini.
Chi progetta l’Ai?
Anche chi sviluppa l’Ai riflette uno squilibrio evidente. Un’analisi di Interface ha rilevato che solo il 22% dei professionisti del settore a livello globale è donna, e appena il 14% ricopre ruoli esecutivi senior. Questa limitata rappresentanza influisce direttamente su come vengono costruiti i sistemi: dalla raccolta dati, alla selezione dei prompt, fino alla fase di testing.
Il legame tra omogeneità dei team e persistenza dei bias è stato documentato da diversi studi. La University of Washington ha evidenziato come, in simulazioni di selezione del personale, i modelli di Ai tendevano a favorire sistematicamente i candidati maschi, anche a parità di competenze e qualifiche. Una metanalisi ha inoltre rilevato che i modelli generativi sono 3–6 volte più inclini ad associare una professione al genere stereotipico rispetto alla realtà occupazionale.
Non si tratta solo di “pregiudizi tecnici”, ma di dinamiche sistemiche. Se l’Ai apprende da un mondo storicamente sbilanciato, tenderà a consolidare quegli stessi squilibri — a meno che non venga progettata per fare il contrario.
L’intelligenza artificiale parla al maschile
Non è solo una questione di immagini. L’Ai generativa scrive, risponde, compone frasi — e lo fa spesso con un linguaggio che ripete strutture e schemi culturali segnati dalla disparità di genere.
Diversi studi hanno osservato che i modelli linguistici di grandi dimensioni tendono ad associare i ruoli professionali a generi stereotipati. Una ricerca pubblicata su PLOS Digital Health ha analizzato migliaia di testi generati da modelli come GPT-3.5 e LLaMA-2: il 98% delle storie con protagonista un’infermiera utilizzava pronomi femminili, mentre la percentuale di pronomi maschili in testi su chirurghi e medici oscillava tra il 64% e l’84%, a seconda del modello impiegato.
Anche il linguaggio valutativo riflette uno squilibrio: una metanalisi dell’Allen Institute for AI ha mostrato che parole come “brilliant”, “intelligent”, “leader” si associano prevalentemente a soggetti maschili nei testi generati da Ai. In italiano, secondo una ricerca del Cnr, modelli basati su BERT completano termini ambigui come “manager” o “ingegnere” quasi sempre al maschile. Quando si usano forme neutre o inclusive, l’output tende a essere instabile o interrotto.
Problemi simili emergono anche nei sistemi di traduzione automatica. Uno studio di Google Ai ha dimostrato che traducendo frasi da lingue senza genere grammaticale (come il turco) verso l’inglese, i modelli assegnano ruoli professionali in modo conforme agli stereotipi culturali: “he is a doctor”, “she is a nurse”.
Le sfide dell’etica algoritmica e dell’inclusività
Studi dimostrano che la presenza di donne e persone con background diversi nei team di sviluppo migliora l’efficacia e l’equità dei sistemi. Non è retorica: è progettazione responsabile. Un algoritmo costruito da persone diverse ha maggiori probabilità di servire davvero tutti.
Lo dimostra il lavoro di Joy Buolamwini e della Algorithmic Justice League: il suo studio Gender Shades ha evidenziato che i software di riconoscimento facciale avevano un tasso d’errore del 34,7% nel riconoscere volti di donne nere, contro appena l’1% per uomini bianchi.
Nel frattempo, l’Ai Act dell’Unione Europea mira a regolamentare lo sviluppo dell’intelligenza artificiale attraverso tracciabilità, trasparenza e responsabilità. Obiettivo: sistemi che rispettino i diritti fondamentali, riducendo i rischi discriminatori.
Anche nel campo del linguaggio, si stanno facendo passi avanti: modelli inclusivi, chatbot che chiedono il pronome preferito, strategie linguistiche neutre. Piccoli segnali di cambiamento, ancora sperimentali, ma promettenti.
La domanda finale resta aperta: vogliamo davvero che l’intelligenza artificiale sia lo specchio del mondo così com’è — diseguale, parziale — o può diventare una leva per immaginare un mondo diverso, più giusto, più equo, più umano? La risposta non è nei codici binari. È nelle scelte — tecniche, politiche e culturali — che facciamo oggi.