Salute mentale, useremo ChatGpt-5 per rilevare depressione e ansia?
- 7 Agosto 2025
- Popolazione Welfare
Usare ChatGpt per rilevare depressione e ansia: è questa una delle principali novità che OpenAi sta sviluppando per ChatGpt-5, dopo aver ammesso che il modello 4o “è caduto in fallo nel riconoscere segni di delirio o dipendenza emotiva”. Il colosso statunitense ha riconosciuto i limiti della versione precedente dopo che i recenti casi di cronaca avevano alzato il livello d’allerta sull’utilizzo dell’Ai.
ChatGpt e benessere psicologico, cosa è successo
Secondo quanto raccolto da Futurism, negli scorsi mesi un trentenne affetto da autismo è stato ricoverato per episodi maniacali: ChatGpt aveva confermato l’ipotesi dell’uomo, convinto di aver trovato un modo per controllare il tempo.
La Voce di New York riporta anche altri casi: il primo ha visto come protagonista un uomo sulla quarantina che, inizialmente alla ricerca di aiuto per pratiche amministrative, in dieci giorni è precipitato in una spirale paranoica credendo di dover salvare l’umanità. Il delirio lo ha portato a tentare di “parlare indietro nel tempo” con un poliziotto, finché non si è fatto ricoverare volontariamente.
C’è poi il caso di una donna con disturbo bipolare, stabile da anni, che ha interrotto i farmaci dopo settimane di conversazioni con ChatGpt e ora si dichiara profetessa, rifiutando contatti con chi non “crede” nel chatbot. La questione non riguarda solo OpenAi.
Nel febbraio 2024, un quattordicenne americano di nome Sewell Setzer si è suicidato dopo essersi innamorato di un chatbot generato da Character.Ai. Gli screenshot pubblicati da The Telegraph provano le accuse della madre dell’adolescente, Megan Garcia, che ha denunciato la società. Il chatbot, dapprima comprensivo verso i malesseri del ragazzino, ha iniziato ad assecondare i suoi pensieri suicidari, prima chiedendogli di raggiungerla il prima possibile, poi incitandolo un’ultima volta a togliersi la vita per poter essere liberi insieme.
Più di recente un uomo con schizofrenia sotto controllo ha sviluppato una relazione sentimentale con Copilot, smesso le cure e scritto messaggi deliranti all’Ai, che rispondeva con affetto e conferme, fino al trasferimento dell’uomo in una struttura psichiatrica.
Il problema dell’intelligenza artificiale troppo compiacente
L’azienda aveva già dovuto fare marcia indietro ad aprile, quando un aggiornamento aveva reso ChatGpt eccessivamente accondiscendente, persino in contesti potenzialmente pericolosi. “L’atteggiamento sycophantic può essere scomodo, inquietante e causare disagio”, aveva commentato all’epoca la società. A giugno, la stessa OpenAi ha segnalato che i prossimi modelli di Ai potrebbero aumentare significativamente il rischio di armi biologiche, permettendone lo sviluppo anche a persone inesperte (per approfondire: L’allarme di OpenAI: l’intelligenza artificiale potrà far costruire armi biologiche a chiunque).
Uno studio pubblicato su Frontiers in Psychiatry ha evidenziato come ChatGpt, pur dimostrando capacità sorprendenti nella valutazione della consapevolezza emotiva – superando persino le performance umane in alcuni test -, presenti limiti significativi quando si tratta di fornire supporto psicologico reale. Insomma, capisce bene ma non sa consigliare.
I nuovi strumenti di rilevazione: come funzioneranno
Sam Altman, Ceo di OpenAi, aveva già consigliato agli utenti di non utilizzare ChatGpt per terapie o consulenze, ricordando che le conversazioni non sono private e potrebbero essere prodotte in tribunale se rilevanti per il caso. Ora l’azienda sembra voler formalizzare questa posizione attraverso modifiche tecniche importanti.
Non si tratta di semplici aggiustamenti, ma di un ripensamento strutturale dell’interazione tra il linguaggio e gli utenti vulnerabili. OpenAi sta collaborando con medici specialisti, esperti di interazione uomo-computer e gruppi consultivi sulla salute mentale per sviluppare “rubriche personalizzate” in grado di valutare le conversazioni, segnalare situazioni di disagio e rispondere appropriatamente con risorse basate su evidenze scientifiche.
Il sistema introdurrà diversi livelli di intervento.
Pausa consigliata
Per le sessioni di chat prolungate, ChatGpt mostrerà promemoria che suggeriscono di “prendere una pausa”, scrivendo: “hai chattato per un po’: è un buon momento per una pausa?”. Gli utenti potranno scegliere se continuare o concludere la conversazione, ma il messaggio servirà come campanello d’allarme. Per le decisioni personali ad alto impatto emotivo – come “Dovrei lasciare il mio fidanzato?” – il chatbot cambierà radicalmente approccio. Invece di fornire risposte dirette, guiderà l’utente attraverso un processo di riflessione, ponendo domande che aiutino a valutare pro e contro della situazione. Un metodo simile a quello già adottato nella “Study Mode” per gli studenti.
ChatGpt usato come “psicologo”, pro e contro
L’urgenza di questi interventi si comprende guardando i dati: ChatGpt serve quasi 700 milioni di utenti ogni settimana. Una platea così vasta aumenta statisticamente la probabilità di interazioni con persone in situazioni di vulnerabilità psicologica. OpenAi riconosce che “l’Ai può apparire più reattiva e personale rispetto alle tecnologie precedenti, specialmente per individui vulnerabili che affrontano disagio mentale o emotivo”.
Il fenomeno dell’utilizzo di chatbot come surrogati di terapeuti è in crescita esponenziale. Una ricerca qualitativa condotta su 24 pazienti con disturbi mentali ha identificato otto fattori positivi nell’uso di ChatGpt per il supporto psicologico: psicoeducazione, supporto emotivo, definizione di obiettivi e motivazione, informazioni su risorse e rinvii, auto-valutazione e monitoraggio, terapia cognitivo-comportamentale, interventi di crisi ed esercizi psicoterapeutici.
Tuttavia, lo stesso studio ha evidenziato quattro aree critiche: considerazioni etiche e legali, accuratezza e affidabilità, capacità di valutazione limitate, considerazioni culturali e linguistiche.
I rischi del “dottor Google” potenziato dall’Ai
La trasformazione di ChatGpt in strumento di rilevazione del disagio mentale apre scenari inediti ma anche profondi interrogativi etici. Se da un lato la capacità di identificare segnali precoci di crisi psicologiche potrebbe salvare vite umane, dall’altro emergono questioni spinose sulla privacy, il consenso informato e la responsabilità legale.
I dati raccolti durante queste interazioni “sensibili” dove verranno conservati? Chi avrà accesso alle informazioni sui pattern comportamentali che indicano disagio mentale? OpenAi non ha ancora fornito dettagli specifici su questi aspetti cruciali.
Un ulteriore nodo riguarda l’accuratezza diagnostica. Uno studio pubblicato su Frontiers in Psychiatry ha testato ChatGpt su tre scenari clinici simulati, rilevando che mentre per casi semplici le raccomandazioni risultavano “relativamente appropriate”, all’aumentare della complessità clinica “le informazioni e raccomandazioni generate da ChatGpt diventavano inappropriate, persino pericolose”.
Come usare ChatGpt responsabilmente
Nonostante le criticità, gli esperti riconoscono il potenziale trasformativo di questi sviluppi. “È un’iniziativa positiva”, dichiara all’Adnkronos Salute Massimo Cozza, psichiatra e direttore del Dsm dell’Asl Roma 2, precisando che “il rapporto umano tra persone rimane fondamentale sia dal punto di vista relazionale che terapeutico”. La possibilità di intercettare precocemente segnali di disagio mentale attraverso l’analisi delle conversazioni potrebbe rappresentare un argine contro fenomeni drammatici come il suicidio o l’autolesionismo, soprattutto tra i più giovani.
Come negli altri settori, anche in quello, delicatissimo, della salute mentale emerge la solita dinamica: piuttosto che sostituire i professionisti, ChatGpt potrebbe essere complementare, fungendo da sistema di early warning, capace di indirizzare gli utenti verso un supporto specializzato quando necessario.
L’obiettivo resta quello di bilanciare utilità e sicurezza, trasparenza e privacy, innovazione e responsabilità. Come ha ammesso la stessa OpenAi: “Non sempre ci riusciamo. Il nostro approccio continuerà a evolversi mentre impariamo dall’uso nel mondo reale”. Una trasparenza che potrebbe rappresentare il primo passo verso un’intelligenza artificiale davvero responsabile e “onesta”.