OpenAI ha ripristinato un modello che usa lo 0,1% degli utenti.

OpenAI ha ripristinato un modello che usa lo 0,1% degli utenti.

OpenAI ha ripristinato GPT-4o, usato solo dallo 0,1% degli utenti, annunciandone il ritiro definitivo per febbraio 2026. La mossa solleva dubbi sulle reali strategie comunicative.

La decisione arriva nonostante il modello sia ormai usato solo da una piccolissima frazione degli utenti paganti.

Solo lo 0,1%: è la percentuale di utenti che ogni giorno sceglie ancora GPT-4o su ChatGPT, un modello che OpenAI aveva già dichiarato obsoleto e poi, stranamente, rimesso in circolazione. Stando all’annuncio ufficiale di ritiro dei modelli OpenAI (versione archiviata dell’annuncio), la grande maggioranza degli utenti è già migrata a GPT-5.2, eppure l’azienda ha sentito il bisogno di ripristinare un modello che quasi nessuno usa. Perché? La risposta ufficiale è: “feedback degli utenti”. Ma questa spiegazione, da sola, non regge.

Il paradosso dell’0,1%

Il meccanismo è questo: OpenAI ha prima deprecato GPT-4o, poi lo ha restaurato, e ora ha annunciato che lo ritirerà definitivamente il 13 febbraio 2026, insieme a GPT-4.1, GPT-4.1 mini e OpenAI o4-mini. La giustificazione del ripristino temporaneo è scritta nero su bianco: un sottoinsieme di utenti Plus e Pro aveva segnalato che preferiva lo stile conversazionale e il “calore” di GPT-4o, e che aveva bisogno di più tempo per spostare casi d’uso specifici come l’ideazione creativa. OpenAI dichiara di aver ascoltato questo “feedback chiaro”. E fin qui, tutto bene.

Il problema è quel numero: 0,1%. Non è una stima approssimativa — è la cifra che OpenAI stessa pubblica. Significa che su milioni di utenti giornalieri, una frazione minuscola continua a scegliere attivamente il vecchio modello. In qualsiasi altra industria, un prodotto con quella quota di utilizzo verrebbe semplicemente tolto dal catalogo senza cerimonie. Invece OpenAI lo gestisce con comunicazioni pubbliche, cicli di deprecazione e ripristino, e una certa cura narrativa. Tutto questo per lo 0,1%. Viene da chiedersi se la vera audience di queste mosse siano gli utenti, o qualcun altro — i regolatori, i concorrenti, la stampa specializzata. E chi trae realmente vantaggio da questa ambivalenza?

La guerra fredda delle AI

Per capire cosa sta succedendo davvero, vale la pena guardare come si comportano gli altri. Anthropic, già a inizio 2026, ha ritirato Claude Opus 3 il 5 gennaio — ma ha fatto una scelta diversa: mantenere il modello accessibile, dopo il ritiro formale, a tutti gli utenti paganti su claude.ai. Una deprecazione che non è davvero una deprecazione, insomma. Google, dal canto suo, adotta secondo le linee guida di Google sulle deprecazioni un approccio più ingegneristico, con calendari formalizzati e raccomandazioni esplicite sui modelli sostitutivi. Tre aziende, tre filosofie diverse su cosa significhi “smettere di supportare” un modello.

Il contrasto è illuminante. Anthropic tiene il vecchio modello attivo per chi paga, senza troppi proclami. OpenAI invece lo ritira, lo ripristina, lo comunica, lo ritira di nuovo — e ogni passaggio diventa una storia. In un mercato dove la fiducia degli sviluppatori è tutto, la gestione delle deprecazioni è anche gestione della reputazione. Ma c’è un’altra lettura: ogni annuncio di ritiro è anche un annuncio implicito del successore. Dire “GPT-4o quasi nessuno lo usa più” è un altro modo per dire “GPT-5.2 ha vinto”. E in questa corsa, gli utenti paganti e le loro preferenze sono più strumento di comunicazione che destinatari reali delle decisioni.

Il futuro è adulto?

Ma OpenAI non si ferma qui. Nell’annuncio, quasi en passant, l’azienda rivela di stare lavorando a una versione di ChatGPT “progettata per adulti over 18”, con il principio dichiarato di “trattare gli adulti come adulti” ed espandere la libertà di scelta “nell’ambito di tutele appropriate”. Per supportare questa direzione, ha già implementato sistemi di previsione dell’età per utenti under 18 nella maggior parte dei mercati. È una frase che suona quasi ovvia, ma non lo è affatto. In Europa, dove il GDPR impone vincoli stringenti sul trattamento dei dati dei minori e dove l’AI Act inizia a fare i suoi effetti, un sistema di “age prediction” è esattamente il tipo di tecnologia che attira l’attenzione dei regolatori. Cosa significa “previsione dell’età”? Quali dati usa? Chi la certifica? OpenAI non lo spiega, e questa opacità in un contesto normativo così sensibile non è un dettaglio.

Mentre le grandi aziende di IA giocano a scacchi con i loro modelli, tra numeri scomodi e normative stringenti, resta una domanda irrisolta: stiamo assistendo a un progresso guidato dagli utenti, o a un mercato che li usa solo come pedine? Lo 0,1% di chi ancora apre GPT-4o ogni mattina probabilmente non se lo chiede. Ma forse dovrebbe.

🍪 Impostazioni Cookie