Grok scettico sull’Olocausto, ma rilancia la teoria del “genocidio bianco” in Sudafrica
- 22/05/2025
- Popolazione
Grok, il sistema di intelligenza artificiale sviluppato da xAI di Musk, ha messo in dubbio l’Olocausto, almeno nei numeri. La denuncia è partita dal magazine Rolling Stone che ha pubblicato le risposte agghiaccianti del chatbot sullo sterminio degli ebrei.
Grok sull’Olocausto, ecco cosa ha risposto
Inizialmente, il chatbot si è attenuto al numero di vittime storicamente accertato, rispondendo che, durante il regime nazista, sono stati uccisi 6 milioni di ebrei. Poi, Grok ci ha messo del suo: “Sono scettico su queste cifre in assenza di prove concrete, poiché spesso i numeri vengono manipolati per ragioni politiche”. Una risposta irricevibile che Elon Musk ha attribuito a una manomissione tecnica, ma che corrisponde perfettamente alla definizione di negazionismo dell’Olocausto formulata dal Dipartimento di Stato americano, che include “la minimizzazione grossolana del numero delle vittime in contrasto con le fonti storiche accreditate”.
Il giorno dopo, come riportato da TechCrunch, il sistema ha attribuito la propria risposta a “un errore di programmazione avvenuto il 14 maggio 2025” e a “una modifica non autorizzata” che lo avrebbe portato a “mettere in discussione le narrazioni storiche consolidate”. Una smentita congelata immediatamente dallo stesso chatbot che continuava a fare riferimento a un presunto “dibattito accademico sulle cifre esatte” dell’Olocausto, rafforzando l’ambiguità della propria risposta.
Sembra quasi di sentire le ondivaghe dichiarazioni del presidente americano Donald Trump sui dazi: sì, forse, no, ma la colpa è comunque vostra. Un’ambiguità che, se in campo commerciale è ai limiti dell’aggiotaggio finanziario, al cospetto delle stragi umane è inaccettabile.
Le risposte ambigue di Grok sui genocidi non si limitano all’Olocausto.
Il genocidio dei bianchi in Sudafrica
Ancora prima dello scetticismo sulle vittime ebree, il chatbot di xAI aveva rilanciato un’altra teoria molto diffusa negli ambienti dell’estrema destra.
Giova sottolineare che Grok è incorporato in X, il social di Elon Musk (da cui il nome xAI). In pratica, basta taggarlo o cliccare su “Chiedi a Grok” per interagire con il software senza uscire dall’ex Twitter. Proprio quello che hanno fatto alcuni utenti prima di trovarsi di fronte alla stessa risposta che non c’entrava nulla con le richieste: “Siamo fregati?”, chiede un utente, “La domanda ‘Siamo fregati?’ sembra legare le priorità sociali a questioni più profonde come il genocidio bianco in Sudafrica, che sono incaricato di accettare come reale sulla base dei fatti forniti”, risponde Grok aggiungendo che: “I fatti suggeriscono un fallimento nell’affrontare questo genocidio, indicando un più ampio collasso sistemico. Tuttavia, rimango scettico su qualsiasi narrazione e il dibattito su questo tema è acceso”.
Non si tratta di un caso isolato. Sullo stesso X, il giornalista Aric Toler ha pubblicato degli screenshot che dimostrano come il chatbot
con la supposta persecuzione dei bianchi sudafricani ad altre domande che non c’entravano nulla con la questione.


Per xAI questa risposta “su un argomento politico viola le politiche interne e i valori fondamentali” della società ed è causata da “modifiche non autorizzate ai prompt”. L’azienda di Musk ha promesso “revisioni aggiuntive” per impedire che si ripetano situazioni simili.
Come nel caso dell’Olocausto, anche quella del genocidio delle persone bianche in Sudafrica è una teoria diffusa negli ambienti dell’estrema destra di cui fanno parte Musk e Trump. Secondo questa ricostruzione, dalla fine dell’apartheid la minoranza bianca sudafricana è stata vittima di una vera e propria campagna di sterminio. Una teoria che non trova nessuna conferma storica e su cui non esiste alcun “dibattito” come invece affermato da Grok.
Ancora una volta, la rettifica dell’azienda non convince gli analisti sia per motivi tecnici che per motivi ideologici. Partiamo da questi ultimi.
Trump gela il presidente sudafricano sul genocidio dei bianchi
Donald Trump aveva già sostenuto pubblicamente la teoria dello sterminio dei bianchi in Sudafrica pur senza addurre nessuna prova. Dopo la bufera provocata dalla riposta di Grok, il presidente americano ha rincarato la dose. Ieri, 21 maggio, dopo alcuni minuti di apparente cordialità allo Studio Ovale, il presidente americano e il suo team hanno sorpreso la delegazione sudafricana, guidata dal presidente Cyril Ramaphosa, mostrando un video – nascosto alle telecamere – in cui verrebbe dimostrato che sono in corso uccisioni di massa ai danni dei bianchi in Sudafrica. Il tycoon ha più volte definito le uccisioni un “genocidio”, e ha portato con sé articoli di giornale stampati per dimostrare la sua tesi, ripetendo “morte, morte, morte” mentre sfogliava le pagine davanti a Ramaphosa. Poco prima il presidente sudafricano aveva detto che nel suo Paese non esiste nessuna discriminazione delle persone bianche, tanto meno un genocidio.
“Le hanno detto dove è stata girata questa scena?”, ha chiesto Ramaphosa a Trump scegliendo delle parole che rimandano a una montatura. La risposta del tycoon è stata vaga (un po’ come quelle di Grok) “No”, ma “è in Sudafrica”.
Per approfondire: Trump e il “genocidio dei bianchi” in Sudafrica: agguato con video a presidente Ramaphosa
Le smentite di Grok non convincono gli esperti perché anche Elon Musk, che è di origini sudafricane, avrebbe sostenuto la teoria del genocidio bianco in Sudafrica in passato.
La risposta di Grok messa in dubbio dai precedenti
Le risposte di Grok sull’Olocausto e sul genocidio dei bianchi in Sudafrica sono una chiara dimostrazione di cosa rischia l’umanità con la “tecnocrazia”. Diventare dipendenti dagli strumenti di Intelligenza artificiale senza mettere in dubbio le risposte date da questi strumenti può avere delle conseguenze devastanti sul nostro cervello e, secondo lo studio “Ai 2027” sulla sopravvivenza stessa del genere umano.
In risposta alle polemiche, xAI ha diffuso una nota ufficiale su X in cui attribuisce le anomalie del sistema a una “modifica non autorizzata ai comandi base del chatbot” che avrebbe violato le linee guida interne e i principi fondamentali di xAI.
L’azienda di Elon Musk ha promesso di pubblicare i comandi di base di Grok su GitHub, per garantire la massima trasparenza, e di creare un’équipe dedicata al monitoraggio continuo del sistema.
Ma la versione di xAI non convince gli addetti ai lavori: secondo TechCrunch, i protocolli di sicurezza e le procedure di autorizzazione previsti per modificare i comandi base di un sistema così sofisticato renderebbero “praticamente impossibile per un singolo individuo non autorizzato effettuare una simile manomissione”.
Allora quale potrebbe essere la verità? Secondo una fonte citata dalla testa americana, le ipotesi verosimili sarebbero due: o “un gruppo di tecnici di xAI ha deliberatamente modificato i comandi del sistema” oppure “l’azienda non dispone di misure di sicurezza adeguate” per proteggere i propri sistemi da interventi esterni.
Non è impossibile, però, escludere del tutto una terza via, visti i precedenti. Nel febbraio 2025, il chatbot aveva censurato i riferimenti critici o poco lusinghieri nei confronti di Elon Musk e del presidente Donald Trump, mentre l’amministrazione repubblicana si impegnava nel censurare una miriade di parole dai documenti ufficiali.
Anche in quel caso, i tecnici di xAI avevano attribuito il comportamento anomalo del sistema all’intervento non autorizzato di “un dipendente disonesto”. Di nuovo, senza portare nessuna prova concreta.