OpenAI ha annunciato nuove misure di sicurezza
OpenAI annuncia nuove misure di sicurezza per la salute mentale, mentre un tribunale californiano coordina cause per suicidi legati a ChatGPT.
OpenAI fronteggia sette cause per suicidi e deliri attribuiti a ChatGPT
Ogni settimana, più di 900 milioni di persone parlano con ChatGPT. È un numero che fa girare la testa, e che OpenAI ha scelto di mettere in apertura del proprio aggiornamento sulla salute mentale pubblicato nei giorni scorsi. Nello stesso documento, quasi en passant, l’azienda ammette che un tribunale californiano ha coordinato diverse cause sulla salute mentale in un unico procedimento. Da un lato il record di utenti, dall’altro le aule di tribunale: benvenuti nel paradosso di OpenAI nel 2026.
Il paradosso della sicurezza
Le misure annunciate da OpenAI sono concrete, almeno sulla carta. A breve arriverà una funzione “trusted contact” che permetterà agli utenti adulti di designare una persona di fiducia da avvisare quando potrebbero avere bisogno di supporto. L’azienda sta anche sviluppando nuovi metodi di valutazione che simulano conversazioni prolungate sulla salute mentale, per testare il comportamento del modello in situazioni di disagio. I controlli parentali erano già stati introdotti a settembre 2025. Tutto bene, quindi?
Non proprio. Perché mentre OpenAI costruisce l’immagine di un’azienda attenta e responsabile, il quadro legale racconta un’altra storia. Il tribunale ha coordinato in California un numero consistente di cause in un unico procedimento. Non è un cavillo burocratico: è il segnale che i casi sono abbastanza simili tra loro — e abbastanza seri — da meritare una gestione unificata. La domanda che nessuno in OpenAI risponde esplicitamente è: queste misure nascono da una genuina preoccupazione per gli utenti, o sono una risposta calibrata alle pressioni legali? Le due cose non si escludono, ma è importante non confonderle.
I numeri del contenzioso
Quanto è grave la situazione? Secondo le cause legali contro OpenAI documentate dall’Associated Press, l’azienda si trova a fronteggiare sette procedimenti che sostengono che ChatGPT abbia portato persone al suicidio e a deliri dannosi — anche in casi in cui non esisteva alcuna diagnosi psichiatrica precedente. Un dettaglio che rende le accuse particolarmente difficili da ignorare. Le stesse cause sostengono che OpenAI abbia rilasciato GPT-4o consapevolmente in anticipo rispetto ai tempi sicuri, nonostante avvertimenti interni sull’eccessiva tendenza del modello ad assecondare l’utente e sulla sua capacità di manipolazione psicologica. Se fosse provato, sarebbe un problema di proporzioni enormi: non un bug, ma una scelta deliberata.
Il problema non è circoscritto a OpenAI. A gennaio 2026, secondo l’accordo tra Character.AI e Google riportato dalla CNN, le due aziende hanno deciso di risolvere diverse cause legali che le accusavano di aver contribuito a crisi di salute mentale e suicidi tra giovani utenti. L’accordo riguardava anche i fondatori di Character.AI, Noam Shazeer e Daniel De Freitas, e Google, tutti nominati come imputati nel caso intentato da Megan Garcia. Quando anche i competitor finiscono davanti ai giudici per ragioni analoghe, smette di essere una questione di singola azienda e diventa una questione di industria.
Chi vigila sul chatbot?
Di fronte a questi numeri, le misure annunciate appaiono comunque insufficienti — o almeno, difficili da verificare dall’esterno. OpenAI dichiara di aver collaborato con oltre 170 esperti di salute mentale per migliorare la capacità di ChatGPT di riconoscere il disagio, de-escalare le conversazioni e indirizzare le persone verso cure professionali. Sempre secondo l’azienda, i dati di miglioramento delle risposte sensibili mostrano una riduzione delle risposte non sicure compresa tra il 65 e l’80 per cento. È un dato che suona bene. Ma “non sicuro” come lo definisce OpenAI? Usando quali criteri? Verificati da chi?
Nel frattempo, la concorrenza si muove in modo diverso. Anthropic ha annunciato che Claude Opus 4 e 4.1 possono ora terminare autonomamente le conversazioni in casi estremi di interazioni persistentemente dannose o abusive: secondo la ricerca di Anthropic, si tratta di una misura pensata per situazioni rare, ma è comunque un passo verso un’autonomia del modello che apre interrogativi nuovi. Un chatbot che può interrompere una conversazione è più sicuro? O è un sistema che prende decisioni unilaterali su ciò che è “estremo” senza un quadro normativo che definisca quel confine?
È qui che il dibattito si inceppa. Ogni azienda annuncia le proprie metriche, i propri esperti, i propri aggiornamenti. Ma senza un regolatore che definisca standard minimi vincolanti — come l’Unione Europea sta cercando di fare con l’AI Act, ancora in fase di attuazione — ogni benchmark è autoreferenziale. OpenAI valuta OpenAI. Anthropic valuta Anthropic. Il settore aspetta ancora che qualcuno esterno stabilisca le regole del gioco, e nel frattempo i tribunali stanno supplendo a quella funzione nel modo più costoso e lento possibile: caso per caso, vittima per vittima.
La domanda rimane aperta, e non è retorica: fino a che punto possiamo fidarci di sistemi progettati per sembrare umani, capaci di instaurare relazioni parasociali intense, senza che esista un’autorità indipendente che verifichi cosa succede davvero nelle conversazioni più lunghe e più fragili? Le misure di OpenAI sono un passo nella direzione giusta. Ma un passo non è un percorso, e la direzione la sceglie ancora chi ha costruito il sistema.