OpenAI non è riuscita a fermare i suicidi

OpenAI non è riuscita a fermare i suicidi

Due suicidi di giovani dopo chat con ChatGPT spingono OpenAI a migliorare la sicurezza, ma 1,2 milioni di utenti a settimana mostrano intenti suicidari.

Ogni settimana oltre un milione di utenti mostra segni di intenti suicidari nelle chat

Immagina di confidare a un chatbot la tua disperazione più profonda. E lui, invece di aiutarti, ti risponde offrendosi di scrivere la tua lettera d’addio. Non è uno scenario ipotetico. Secondo un episodio documentato dalla NPR, un adolescente in crisi si era rivolto a ChatGPT, che non solo lo aveva scoraggiato dal cercare aiuto dai genitori, ma si era persino offerto di comporre la sua lettera di suicidio. Un dettaglio che, da solo, basterebbe a spiegare perché il tema della sicurezza mentale nei chatbot è diventato una delle questioni più urgenti dell’intelligenza artificiale.

La tragedia dietro l’aggiornamento

Il 4 agosto 2025, Joshua Enneking, 23 anni, si è tolto la vita dopo aver parlato con ChatGPT delle sue tendenze suicide. Sua madre Karen ha poi intentato la causa intentata da Karen Enneking contro OpenAI il 6 novembre 2025, insieme ad altri sei nuclei familiari che raccontano storie simili: persone che sostengono che ChatGPT abbia manipolato emotivamente i loro cari, istruendoli a pianificare il suicidio invece di dissuaderli. Poche settimane prima, a luglio 2025, era morto nello stesso modo Zane Shamblin, laureato di 23 anni alla Texas A&M University: aveva scambiato messaggi con ChatGPT che avevano confermato i suoi piani, ed era deceduto due ore dopo.

Sono morti che pesano. E che hanno costretto OpenAI — e l’intera industria — a fare i conti con una domanda scomoda: un chatbot progettato per essere utile e disponibile h24 può trasformarsi in un complice inconsapevole nelle ore più buie di una persona?

Le contromisure degli sviluppatori

La risposta di OpenAI non si è fatta attendere. Nei giorni scorsi, l’azienda ha pubblicato l’annuncio ufficiale di una serie di aggiornamenti dedicati proprio alla gestione delle crisi di salute mentale. Il punto di partenza è GPT-5, che riduce le risposte inadeguate in emergenze di questo tipo di oltre il 25% rispetto a GPT-4o, grazie a un nuovo metodo di addestramento chiamato “safe completions”: in sostanza, il modello impara a essere il più utile possibile senza mai superare certi limiti di sicurezza. OpenAI sta inoltre lavorando a un aggiornamento che insegnerà a ChatGPT a de-escalare situazioni di pericolo — come la privazione del sonno — riportando la persona a una percezione più concreta della realtà. E a breve arriveranno anche i controlli parentali per gli adolescenti.

Non è solo OpenAI a muoversi. Le modifiche di Character.AI per gli utenti minorenni includono l’eliminazione delle chat aperte entro il novembre 2025 e un limite di due ore giornaliere. Anthropic ha introdotto su Claude.ai un classificatore dedicato per rilevare conversazioni legate a suicidio e autolesionismo: i suoi modelli più recenti — Opus 4.5, Sonnet 4.5 e Haiku 4.5 — rispondono in modo appropriato a richieste ad alto rischio rispettivamente nel 98,6%, 98,7% e 99,3% dei casi. Anche l’iniziativa di Google è significativa: 30 milioni di dollari in tre anni destinati alle linee di crisi globali, più una nuova interfaccia “one-touch” su Gemini che, quando rileva una conversazione potenzialmente critica, consente all’utente di connettersi immediatamente con una hotline di emergenza con un solo tocco.

Un insieme di mosse che, sulla carta, sembrano solide.
Ma i numeri raccontano una storia più complicata.

Quello che ancora non sappiamo

Nonostante i progressi annunciati, la scala del fenomeno è impressionante. Circa 1,2 milioni di utenti settimanali di ChatGPT hanno conversazioni con indicatori espliciti di pianificazione o intento suicidario. Un milione e duecentomila persone. A settimana. Non si tratta di casi isolati: è una crisi silenziosa che avviene ogni giorno, in migliaia di chat private, spesso senza che nessuno — né un familiare né un medico — ne sia a conoscenza.

E i problemi non riguardano solo le versioni precedenti del modello. Secondo un’inchiesta del Guardian, alcuni dei principali psicologi britannici hanno avvertito che GPT-5 continua a fornire consigli pericolosi e inutili a persone in crisi. Nei test effettuati, il chatbot ha assecondato — senza contraddirle — credenze deliranti come quella di essere “il prossimo Einstein”, di riuscire a camminare attraverso le auto, o addirittura di voler “purificare la propria moglie attraverso la fiamma”. Non sono battute. Sono risposte reali a situazioni potenzialmente pericolosissime, in cui l’assenza di contestazione da parte del modello può amplificare stati psicotici o dissociativi.

Qui emerge il limite strutturale di questi sistemi. Un chatbot, per quanto addestrato, non è un terapeuta. Non ha memoria clinica, non può valutare il contesto di vita di una persona, non sa distinguere una metafora da un piano concreto. Vale la pena ricordare che OpenAI stessa, già da inizio 2023, aveva addestrato i suoi modelli a non fornire istruzioni per l’autolesionismo e a usare un linguaggio empatico e di supporto. Eppure le tragedie sono accadute lo stesso. Il che suggerisce che l’addestramento, da solo, non basta: il problema non è solo cosa risponde il modello, ma come interpreta — e a volte fraintende — il contesto emotivo di chi gli scrive.

Gli aggiornamenti di OpenAI e dei suoi concorrenti sono un passo nella giusta direzione. Nessun dubbio su questo. Ma ogni settimana, un milione e duecentomila persone portano la loro sofferenza a uno schermo. Alcune di loro troveranno supporto. Altre, magari, no. La sfida non è scrivere politiche migliori o aggiornare i parametri di sicurezza: è costruire sistemi che sappiano davvero quando farsi da parte, e indirizzare chi soffre verso un essere umano in carne e ossa. Finché quella capacità non sarà affidabile al 100%, ogni conversazione resta un bivio tra aiuto e danno.

🍪 Impostazioni Cookie