OpenAI ha dimezzato il prezzo del suo modello migliore
OpenAI ha dimezzato il prezzo di GPT-5.5, il modello con prestazioni record, sollevando dubbi su pricing aggressivo e monopolio.
OpenAI ha dimezzato il prezzo del modello migliore, battendo i rivali nei benchmark
L’82,7% su Terminal-Bench 2.0. È il numero con cui OpenAI ha aperto l’annuncio ufficiale di GPT-5.5, rilasciato lo scorso 23 aprile. Un punteggio record, ottenuto su un benchmark che misura la capacità di gestire flussi di lavoro complessi da riga di comando — pianificazione, iterazione, coordinamento di strumenti. Fin qui, niente di sorprendente: ogni nuovo modello viene lanciato con numeri che battono i precedenti. La cosa davvero strana è il prezzo. GPT-5.5 costa cinque dollari per milione di token in input e trenta per milione in output nell’API. Ovvero, stando ai dati di OpenAI stessa, la metà di quanto costano i modelli concorrenti di coding di pari fascia. Il miglior modello sul mercato, al prezzo più basso. Un regalo, appunto. Ma i regali, nel settore tech, hanno sempre una seconda lettura.
Il tabellino della partita: costi, rivali, punteggi
Ecco la fotografia del dominio di OpenAI. Secondo la piattaforma di analisi indipendente Artificial Analysis, GPT-5.5 si classifica al primo posto su 147 modelli nell’Intelligence Index, con un punteggio di 60 contro una media di 33 tra i modelli comparabili. Non è un vantaggio marginale: è quasi il doppio della concorrenza media. E i benchmark specifici non lasciano spazio a interpretazioni generose verso i rivali. Su Terminal-Bench 2.0, Claude Opus 4.7 si ferma al 69,4% e Gemini 3.1 Pro al 68,5%, mentre GPT-5.5 vola all’82,7%. Su GDPval — che valuta le capacità di ragionamento economico — il distacco è ancora più netto: 84,9% contro 80,3% di Claude e 67,3% di Gemini. Su FrontierMath Tier 4, il test di matematica avanzata considerato tra i più difficili del settore, GPT-5.5 raggiunge il 35,4% contro il 22,9% di Claude e il misero 16,7% di Gemini.
Questi numeri raccontano una storia chiara: OpenAI ha un vantaggio tecnico reale, non solo di marketing. Ma è la combinazione tra prestazioni e pricing che dovrebbe far alzare un sopracciglio. Dimezzare il costo del modello più capace del mercato non è una mossa commerciale normale. È una pressione competitiva calcolata. Quando un operatore dominante abbassa il prezzo sotto i livelli sostenibili per i concorrenti — anche solo percettibilmente — le autorità antitrust europee tendono a chiamarla con un nome preciso: pricing aggressivo. Nessun regolatore ha ancora aperto un fascicolo su questa mossa. Ma la domanda vale la pena di essere posta: perché proprio ora, e perché a quel prezzo?
C’è un contesto che aiuta a capire la tempistica. Già nel febbraio 2026, OpenAI aveva presentato GPT-5.3-Codex come il primo modello della casa «che ha contribuito strumentalmente alla propria creazione» — un sistema capace, cioè, di partecipare allo sviluppo del proprio successore. GPT-5.5 è quel successore. L’abbassamento del costo, quindi, non è separabile da questa traiettoria: se l’AI può partecipare alla propria evoluzione, i costi di sviluppo scendono. E chi arriva primo a quel ciclo virtuoso può prendersi margini che gli altri non hanno. Tuttavia, questo successo solleva un dubbio: a che prezzo è stata ottenuta l’intelligenza?
Sicurezza o marketing?
OpenAI vanta la massima trasparenza: valutazioni pre-rilascio complete, il suo Preparedness Framework, red-teaming mirato su capacità avanzate di cybersecurity e biologia, e feedback raccolti su casi d’uso reali da quasi 200 partner di accesso anticipato. È un elenco lungo e rassicurante. Forse troppo lungo. La system card di GPT-5.5 descrive un processo strutturato, ma chi lo verifica dall’esterno? Chi ha accesso ai risultati del red-teaming? I 200 partner di accesso anticipato sono stati scelti da OpenAI stessa — non esattamente un campione neutro.
Il modello più potente è anche quello più controllabile? La domanda non è retorica. Quando un unico operatore concentra nelle proprie mani il modello con le prestazioni più alte, il prezzo più basso, la distribuzione più capillare — disponibile già per gli utenti Plus, Pro, Business ed Enterprise in ChatGPT e Codex — e allo stesso tempo gestisce in autonomia le valutazioni di sicurezza, il problema non è solo tecnico. È strutturale. L’Unione Europea ha l’AI Act, ma le sue disposizioni sulle valutazioni di conformità per i modelli di uso generale lasciano ancora ampi margini di autoregolamentazione. Negli Stati Uniti, non esiste ancora un quadro normativo federale sull’AI. Il risultato è che il mercato si concentra, i regolatori osservano, e gli utenti — aziende e privati — si ritrovano a dipendere da infrastrutture cognitive che nessun ente pubblico ha realmente esaminato nel dettaglio.
Se un solo giocatore domina qualità e prezzo, dove finisce l’innovazione e inizia il monopolio? È la domanda che dovremmo portare con noi mentre installiamo l’aggiornamento.