OpenAI sta insegnando a ChatGPT a indovinare l'età

OpenAI sta insegnando a ChatGPT a indovinare l’età

OpenAI sta costruendo un sistema di age prediction per ChatGPT, basato su analisi comportamentale, per proteggere i minori senza richiedere documenti.

Il sistema analizza lessico e temi delle conversazioni per stimare l’età senza documenti

OpenAI sta costruendo un sistema per prevedere se un utente ha più o meno di 18 anni. Non è una feature secondaria: è un pezzo di infrastruttura che ridisegna l’architettura di sicurezza di ChatGPT dall’interno. Lo ha dichiarato la stessa azienda nei giorni scorsi, in un aggiornamento pubblico sulla salute mentale che affronta un problema di dimensioni difficilmente visualizzabili: ogni settimana, più di 900 milioni di persone usano ChatGPT. Proteggere una base utenti di quella grandezza — senza rompere l’esperienza, senza richiedere documenti d’identità, senza trasformare ogni conversazione in un checkpoint — è un problema di ingegneria prima ancora che di policy.

Il banco di prova

Il contesto in cui nasce questo aggiornamento non è neutro. A febbraio 2026, un tribunale californiano ha coordinato diverse cause legali relative alla salute mentale degli utenti di ChatGPT in un unico procedimento. La pressione legale esiste, ma ridurre questa mossa a una risposta difensiva sarebbe sbagliato: la sfida tecnica è reale e non banale, indipendentemente dalle aule di tribunale.

Il punto critico è la scala. 900 milioni di sessioni settimanali significa che qualsiasi decisione di moderazione viene applicata miliardi di volte. Un sistema che funziona al 99% lascia comunque spazio a milioni di interazioni fuori controllo ogni settimana. Non esiste soglia di errore accettabile che non sia, in numeri assoluti, enorme. Già a settembre 2025 OpenAI aveva introdotto controlli parentali per ChatGPT, incluso un sistema di notifica che aiuta i genitori a sapere se un teenager potrebbe stare pensando di farsi del male. Quella era una prima risposta. Il sistema di age prediction è il passo successivo: non più solo reagire, ma anticipare.

Sotto il cofano della safety

Ma come fa ChatGPT a distinguere un teenager da un adulto senza chiedere documenti? Il sistema di age prediction che OpenAI sta costruendo non è descritto nei dettagli implementativi, ma la direzione è chiara: si tratta di inferenza comportamentale e contestuale, non di verifica documentale. Il modello analizza segnali impliciti della conversazione — lessico, temi, pattern di interazione — per stimare se l’utente sia probabilmente sotto i 18 anni. Quando l’inferenza supera una certa soglia di confidenza, l’utente viene automaticamente indirizzato a un’esperienza con policy adeguate all’età, incluso il blocco di contenuti sessuali grafici. Non è un filtro binario on/off: è un layer probabilistico che opera in tempo reale su ogni sessione.

Accanto alla predizione dell’età, OpenAI sta sviluppando altri due componenti dello stesso layer di sicurezza. Il primo è un sistema di valutazione basato su conversazioni simulate: metodi che riproducono scambi prolungati sul tema della salute mentale, usati per testare e calibrare i comportamenti del modello prima che arrivino in produzione — una forma di red-teaming specializzato. Il secondo è la funzione trusted contact: gli utenti adulti potranno designare una persona di fiducia che riceverà notifiche se il sistema rileva che potrebbero aver bisogno di supporto aggiuntivo. È un meccanismo di escalation umana integrato direttamente nel prodotto, non affidato a una pagina di supporto esterna. Già nell’ottobre 2025, OpenAI aveva costituito l’Expert Council on Well-Being and AI per guidare questo lavoro su ChatGPT e Sora. I tre sistemi — predizione dell’età, simulazione delle conversazioni a rischio, trusted contact — sono quindi pezzi di un’architettura modulare che è maturata nel tempo, non un annuncio improvvisato.

Cosa cambia per chi costruisce

Per chi sviluppa chatbot o prodotti AI conversazionali, la lezione è scomoda ma necessaria. Già nel febbraio 2024, Sewell Setzer III — un quattordicenne della Florida — era morto suicida dopo aver sviluppato un attaccamento emotivo profondo a un chatbot su Character.AI, come documentato dalla causa legale. Quella storia ha reso visibile un rischio che molti builder avevano considerato di secondo piano. La risposta di OpenAI mostra che la sicurezza non può più essere un documento di policy allegato alle condizioni d’uso: deve essere un layer tecnico progettato dentro il prodotto, testato prima del deploy, aggiornato in modo continuo. Non è un problema che si risolve con le linee guida. È un problema di architettura software. E chi inizia a costruire oggi non ha più l’alibi di non saperlo.

🍪 Impostazioni Cookie