OpenAI ha dimezzato il prezzo di GPT-5.5

OpenAI ha dimezzato il prezzo di GPT-5.5

OpenAI annuncia GPT-5.5 a metà costo dei rivali, superandoli nei benchmark. Dubbi su sicurezza e concorrenza.

OpenAI dimezza i costi di GPT-5.5 tra dubbi su concorrenza e sicurezza

Ieri OpenAI ha annunciato GPT-5.5, disponibile da subito in Codex e ChatGPT. Il comunicato è sobrio, quasi asciutto. Ma nasconde un numero che vale più di mille parole: secondo l’annuncio ufficiale di GPT-5.5, il modello «offre intelligenza all’avanguardia a metà del costo dei modelli di coding concorrenti». La metà. Non il quindici percento in meno, non un’offerta promozionale a tempo. La metà. E qui il giornalismo onesto impone una domanda: quando un’azienda decide di competere sul prezzo mentre tutti gli altri competono sulla qualità, cosa sta coprendo — o cosa sta scoprendo?

Il paradosso del prezzo

GPT-5.5 fa cose che ci si aspetta da un modello di nuova generazione: scrive e corregge codice, fa ricerche online, analizza dati, produce documenti e fogli di calcolo, opera software in autonomia. Rispetto al suo predecessore, stando a quanto pubblicato su community.openai.com, mantiene la stessa latenza per token di GPT-5.4 ma usa significativamente meno token per completare gli stessi compiti in Codex — il che lo rende più efficiente e, di conseguenza, più economico da far girare. Presto arriverà anche nell’API, insieme alla versione GPT-5.5 Pro.

Il contesto è utile per capire la velocità con cui si muove OpenAI. A marzo scorso, la società aveva già rilasciato GPT-5.4, il primo modello general-purpose con capacità native di uso del computer e un contesto da un milione di token. Prima ancora, già a dicembre 2025, GPT-5.2 aveva segnato un netto salto nei benchmark interni, con il 70,9% di vittorie o pareggi in GDPval contro il 38,8% di GPT-5. La progressione è rapida. Ma quello che colpisce non è la velocità dell’iterazione — è la strategia di prezzo annunciata apertamente, quasi come una sfida. Anthropic e Google, adesso, cosa faranno?

Corsa al ribasso (o al rialzo?)

I benchmark parlano chiaro: GPT-5.5 supera Claude Opus 4.7 e Gemini 3.1 Pro in Terminal-Bench 2.0, il test di riferimento per il coding agentivo. GPT-5.5 Pro fa meglio di entrambi anche in BrowseComp, il benchmark per la ricerca avanzata sul web. Sono numeri pubblicati da OpenAI stessa, e quindi vanno letti con la consueta cautela — le aziende tendono a scegliere i benchmark che le fanno sembrare le migliori. Ma anche se si scontano le scelte metodologiche, il quadro che emerge è di un modello che non sacrifica la qualità per abbassare il prezzo: la riduce strutturalmente, attraverso l’efficienza.

E qui sta il punto che non torna. Se riesci a offrire prestazioni superiori a metà prezzo, vuol dire che i tuoi concorrenti stavano guadagnando molto di più di quanto fosse necessario, oppure che tu stai usando una leva diversa — scala, infrastruttura, integrazione verticale — per sussidiare il costo e conquistare quota di mercato. Entrambe le interpretazioni sono scomode. La prima per Anthropic e Google. La seconda per i regolatori. Un’azienda che controlla la piattaforma (ChatGPT), il modello (GPT-5.5) e lo strumento di sviluppo (Codex) e che vende l’intera catena a metà prezzo dei concorrenti è esattamente il tipo di struttura che le autorità antitrust europee e americane stanno cercando di imparare a leggere. Non è una accusa, è una domanda che vale la pena fare.

La sicurezza a metà prezzo

OpenAI è consapevole della sensibilità del momento. Lo si capisce dal tono della system card di GPT-5.5, che dedica ampio spazio alle misure di sicurezza. Il modello è stato sottoposto a una serie completa di valutazioni pre-distribuzione secondo il Preparedness Framework dell’azienda, incluso un red-teaming mirato su capacità avanzate di cybersecurity e biologia. Quasi duecento partner di accesso anticipato hanno fornito feedback su casi d’uso reali prima del rilascio pubblico. E le salvaguardie adottate vengono descritte come «le più forti mai implementate fino ad oggi, progettate per ridurre gli abusi preservando usi legittimi e benefici delle capacità avanzate».

Tutto questo è rassicurante — sulla carta. Ma è anche il tipo di linguaggio che vale la pena decodificare. «Le più forti salvaguardie fino ad oggi» è una frase che OpenAI ha usato, con variazioni minime, per ogni nuovo rilascio degli ultimi anni. È un benchmark relativo: il modello è più sicuro del precedente. Non è una garanzia assoluta, né un confronto con ciò che accade al di fuori dei laboratori OpenAI. Il red-teaming su biologia e cybersecurity è importante — ma chi certifica che sia stato sufficiente? Non un ente terzo, non un regolatore. OpenAI stessa.

E qui il prezzo torna a essere rilevante. Quando un modello costa meno, viene usato di più. Volumi più alti significano superfici di attacco più ampie, più utenti marginali, più casi d’uso imprevedibili. Le misure di sicurezza scalano con l’uso? Oppure la curva del rischio cresce più velocemente di quella della protezione? Sono domande che il GDPR e l’AI Act europeo pongono esplicitamente, ma a cui i documenti pubblicati da OpenAI rispondono solo in parte. Il fatto che quasi duecento partner abbiano testato il modello prima del lancio è un segnale positivo. Ma duecento partner selezionati da OpenAI non sono un campione neutro del mondo reale.

GPT-5.5 abbassa il costo dell’intelligenza artificiale avanzata. È un fatto, e probabilmente un fatto rilevante per chiunque sviluppi software o gestisca flussi di lavoro complessi. Ma alza il livello delle domande a cui, per ora, non abbiamo risposte: chi controlla davvero la sicurezza quando il modello è ovunque? Come si regola un’azienda che compete sul prezzo in un mercato che non ha ancora regole chiare sul prodotto? E soprattutto — perché proprio ora?

🍪 Impostazioni Cookie