L’Ai social può essere transfobica?
- 16/05/2025
- Mondo Popolazione
Il 17 maggio è la Giornata internazionale contro l’omofobia, la bifobia e la transfobia. In tutto il mondo si celebrano i diritti delle persone Lgbtqia+ e si denunciano le discriminazioni ancora troppo diffuse. Ma c’è un fronte silenzioso che raramente entra nel dibattito pubblico: quello degli algoritmi. Nel 2025, l’omofobia ha assunto forme nuove. È un flag automatico, una demonetizzazione inspiegabile, una rimozione “per errore” da parte di una rete neurale che non capisce il contesto. È la transfobia degli algoritmi, una minaccia insidiosa e sottovalutata.
Chi crea contenuti su TikTok, Instagram o YouTube lo sa bene: parlare apertamente della propria identità Lgbtqia+ può tradursi in penalizzazioni invisibili, contenuti oscurati o cancellazioni arbitrarie. Tutto avviene senza volto umano, senza spiegazioni. Secondo un’indagine di Glaad (Gay & Lesbian Alliance Against Defamation), il 48% dei creator Lgbtqia+ ha subito almeno una volta la rimozione automatica di contenuti legati alla propria identità, pur rispettando le regole. Basta raccontare una transizione o condividere una campagna contro il bullismo perché l’algoritmo attivi un filtro di censura.
Il problema nasce da dati di addestramento distorti e modelli incapaci di distinguere l’offensivo dall’informativo. Parole come “trans” o “queer”, nei dataset originali, sono spesso associate a contesti negativi o pornografici. Il risultato è un filtro sistemico che esclude, anziché proteggere. A peggiorare le cose, c’è l’opacità delle logiche algoritmiche. Gli utenti Lgbtqia+ diventano invisibili per default, esclusi dai feed e dai suggerimenti. È una nuova forma di marginalizzazione: automatica, digitale, strutturale.
Come nasce una bias transfobica
Un algoritmo è buono quanto i dati su cui è stato addestrato. E quando quei dati riflettono una cultura piena di stereotipi, il risultato è un’intelligenza artificiale che amplifica quei pregiudizi. Anche quelli transfobici. I modelli linguistici usati dalle big tech si nutrono di miliardi di testi presi da internet, forum e social media. Ma la rete è tutt’altro che neutrale.
Uno studio del Queer in AI Lab di Stanford ha rivelato che le parole “trans”, “non-binary” e “genderqueer” sono associate, nell’80% dei casi, a contesti negativi o caricaturali. Quando l’Ai assimila questi dati senza filtri critici, finisce per trattare le identità queer come segnali di rischio. Questo spiega perché molti contenuti Lgbtqia+ vengano sovra-moderati: l’algoritmo confonde attivismo con incitamento, testimonianze con pornografia, visibilità con trasgressione. Se il 70% dei testi sul tema è carico d’odio, la macchina ne deduce che il termine “trans” sia problematico.
Il problema si estende anche alla pubblicità. Alcune campagne legate al Pride vengono escluse da fasce di pubblico o bollate come “controverse” dai sistemi di brand safety. L’identità diventa un rischio reputazionale.
La bias transfobica nasce da:
- Dataset sbilanciati e parziali;
- Mancanza di contesto nei modelli;
- Filtri guidati da logiche legali o commerciali, non etiche;
- Nessun controllo indipendente.
Quando l’inclusione sparisce dai feed
Scrolli TikTok. Cagnolini, balletti, podcast. Ma se cerchi “trans rights”? Quasi niente. Se pubblichi un video sulla transizione, le visualizzazioni crollano. Se commenti un coming out, quel commento può sparire. Non è una teoria del complotto: è il risultato di algoritmi ciechi, moderazione automatica e silenzio sistemico. Sempre più utenti Lgbtqia+ usano codici e sostituzioni per eludere la censura algoritmica. Non si scrive “lesbica”, ma “l3sb1ca”. Non “transgender”, ma si allude. È nata una lingua parallela, costruita per evitare che l’intelligenza artificiale marchi quelle parole come rischiose o inopportune, anche quando il contenuto è positivo o informativo.
Un’indagine interna di Meta, rivelata nel 2023 dal Washington Post, ha mostrato che su Instagram parole come “gay” o “trans” venivano penalizzate nel 35% dei casi, anche in contesti di sostegno o divulgazione. In confronto, post contenenti parole legate ad armi o violenza venivano oscurati in percentuali inferiori. Il controllo automatico si dimostra spesso più duro con l’identità che con l’aggressività. Anche TikTok è finito sotto accusa per l’esclusione sistematica dei contenuti Lgbtqia+ dalle sue pagine principali. Molti creator hanno denunciato di essere stati rimossi dalle sezioni più visibili della piattaforma, con un impatto diretto su visibilità, engagement e possibilità economiche. Meno visualizzazioni significa meno opportunità, meno rilevanza, meno reddito.
Tutto questo accade mentre le piattaforme si promuovono come inclusive, con campagne patinate durante il Pride Month. Ma nella pratica quotidiana, i loro algoritmi agiscono come filtri di cancellazione culturale. Non necessariamente per scelta deliberata, ma spesso per ignoranza strutturale, per mancanza di diversità nei team di sviluppo, per assenza di supervisione trasparente.
Chi controlla chi controlla?
Ma chi decide cosa è accettabile? E, ancora più importante, chi controlla chi prende queste decisioni? Dietro ogni algoritmo di moderazione c’è una fitta rete di scelte editoriali, standard etici, metriche di engagement e valutazioni legali. Ma soprattutto, ci sono assenze. Assenza di rappresentanza Lgbtqia+ nei team tecnici. Assenza di verifica da parte di soggetti indipendenti. Assenza di trasparenza nei criteri decisionali. In definitiva, un vuoto democratico.
Oggi, la maggior parte dei sistemi di intelligenza artificiale utilizzati da colossi come Meta, Google, TikTok o X non è sottoposta a reale controllo pubblico. Le loro policy di moderazione automatica sono documenti riservati, raramente aggiornati con il contributo delle minoranze. Le logiche con cui un contenuto viene oscurato o fatto emergere restano spesso sconosciute persino ai team di assistenza. Eppure, quegli algoritmi hanno il potere concreto di orientare il dibattito pubblico, di decidere quali voci si sentono e quali vengono spente.
In Italia, il Garante Privacy ha iniziato a indagare sull’impatto dell’Ai, ma non esistono ancora regole chiare per affrontare la discriminazione algoritmica basata su identità di genere o orientamento sessuale. Anche l’Autorità per le garanzie nelle comunicazioni e l’Autorità Garante della Concorrenza e del Mercato, oggi, non dispongono di strumenti adatti per intervenire su questi squilibri, a meno che non ci sia una violazione esplicita di normative più generali.
Eppure, è proprio questo il punto: in un contesto in cui il 90% dell’informazione digitale passa attraverso filtri privati, affidare a logiche aziendali la definizione di ciò che è legittimo visibilmente significa abdicare a un principio fondamentale di democrazia. Per costruire una società algoritmicamente equa serve un cambio radicale di rotta. Servono verifiche indipendenti sui modelli, una presenza attiva delle comunità Lgbtqia+ nella progettazione delle tecnologie, sistemi chiari per contestare penalizzazioni subite e, soprattutto, trasparenza sulle regole del gioco. Il Regolamento europeo sull’Ai Act ha già indicato alcune direzioni, ma l’applicazione concreta è ancora tutta da costruire.