Cursor ha dimezzato i costi dell'IA

Cursor ha dimezzato i costi dell’IA

OpenAI lancia GPT-5.5, modello più intelligente ed economico, grazie a hardware NVIDIA ottimizzato che dimezza i costi e supera i rivali.

Il co-fondatore di Cursor loda l’efficienza del nuovo modello, che costa la metà dei rivali

Prendi uno sviluppatore come Michael Truell, co-fondatore di Cursor: ogni giorno deve scrivare codice complesso, testare strumenti, correggere errori. Fino a poco tempo fa, per farlo con l’aiuto dell’intelligenza artificiale doveva pagare decine di dollari al mese in token. Poi è arrivato GPT-5.5. E tutto è cambiato.

Michael Truell ha commentato GPT-5.5 definendolo “notevolmente più intelligente e persistente” del precedente modello, con prestazioni di coding più forti e strumenti più affidabili. Non è solo un aggiornamento: è la prima volta che l’IA di frontiera costa la metà dei concorrenti. E questo cambia le regole del gioco per chiunque usi modelli linguistici.

Ma come fa OpenAI a offrire un modello più performante a un prezzo così basso? Il segreto sta in due mosse parallele: da un lato l’ottimizzazione del software, dall’altro un’infrastruttura hardware pensata per l’efficienza. L’annuncio ufficiale di GPT-5.5 spiega che il modello mantiene la stessa latenza per token di GPT-5.4, ma utilizza significativamente meno token per completare gli stessi compiti in Codex – il tool di coding di OpenAI. In pratica, ogni richiesta costa meno perché il cervello artificiale è più efficiente: pensa più velocemente con meno energia.

Il segreto sta nell’hardware

Non è solo questione di codice ottimizzato. GPT-5.5 gira su sistemi rack-scale NVIDIA GB200 NVL72, un’architettura progettata per l’inferenza AI. I numeri sono impressionanti: rispetto alla generazione precedente, il GB200 NVL72 offre 35x lower cost per million tokens e 50x higher token output per megawatt. Significa che OpenAI può servire milioni di richieste consumando una frazione dell’energia e con costi operativi bassissimi. Gli ingegneri NVIDIA hanno già avuto accesso al modello tramite l’app Codex – infrastruttura NVIDIA per Codex – e i risultati parlano da soli.

Il risparmio è così radicale che il dimezzamento del prezzo di GPT-5.5 non è uno sconto promozionale, ma una conseguenza strutturale. Offre intelligenza all’avanguardia a metà del costo dei modelli di coding concorrenti – una sfida diretta a Claude e Gemini. Anche la riduzione dei costi di GPT-5.5 si spiega con l’efficienza: meno token spesi, stessa potenza.

E i benchmark? Dominano

Se qualcuno pensa che il risparmio vada a scapito delle prestazioni, si sbaglia. GPT-5.5 supera Claude Opus 4.7 e Gemini 3.1 Pro in Terminal-Bench 2.0, mentre la versione Pro supera gli stessi modelli in BrowseComp. Non è un caso: il salto rispetto a GPT-5.2 – che a dicembre 2025 aveva già segnato un 70,9% di vittorie o pareggi in GDPval contro il 38,8% del predecessore – è stato netto (storia dei modelli GPT). Ogni iterazione riduce il divario tra intelligenza artificiale e costo accessibile.

Ora la domanda è personale: cosa cambia per te? Se sei uno studente che ha bisogno di scrivere una tesi, un piccolo imprenditore che automatizza risposte ai clienti, o un programmatore che debugga codice, avere un modello così potente a un prezzo così basso significa che puoi integrarlo nei tuoi flussi di lavoro quotidiani senza sborsare un abbonamento aziendale. L’IA diventa una commodity: la usi come usi l’elettricità, senza pensarci.

Il futuro è già qui

Certo, ci sono ancora questioni da tenere d’occhio. La privacy dei dati, la dipendenza da un singolo fornitore, la trasparenza sui criteri di addestramento. OpenAI non ha pubblicato dettagli completi su come viene gestita la sicurezza dei prompt, e l’enorme potenza di calcolo concentrata solleva interrogativi ecologici – anche se l’efficienza energetica del GB200 NVL72 è già un passo avanti. Ma la direzione è chiara: rendere l’intelligenza artificiale accessibile a tutti, non solo a chi ha budget milionari. E se GPT-5.5 è solo l’inizio, tra un anno potremmo vedere modelli ancora più piccoli, più veloci e più economici. Tenete d’occhio l’hardware, perché lì si decide la prossima frontiera.

🍪 Impostazioni Cookie