DeepSeek e OpenAI hanno tagliato i prezzi dell'AI

DeepSeek e OpenAI hanno tagliato i prezzi dell’AI

DeepSeek V4 e GPT-5.5 tagliano costi e memoria, rendendo l'analisi di milioni di token accessibile a sviluppatori e pmi.

La sfida si gioca ora sui costi di inferenza e l’accessibilità per sviluppatori e aziende

Immagina di dover analizzare un intero archivio di chat aziendali, un milione di token di conversazioni da processare in una notte. Fino a un mese fa era un incubo: costi di inferenza alle stelle, memoria che esplodeva, e alla fine il modello si bloccava dopo poche migliaia di token. Oggi, con DeepSeek V4 e il suo contesto da un milione di token, quella stessa analisi costa un decimo. E non è l’unico scossone.

Il 2026 ha già scritto un copione inaspettato: la guerra dell’intelligenza artificiale non si combatte solo sui benchmark, ma sui portafogli. Due giganti, OpenAI e DeepSeek, hanno deciso che rendere l’AI accessibile a tutti è la vera frontiera. E lo stanno facendo con mosse chirurgiche.

Il trucco della memoria che cambia tutto

I modelli di linguaggio hanno un tallone d’Achille: la KV cache, la memoria temporanea necessaria per tenere traccia di ogni token generato. Più lungo è il contesto, più la cache si gonfia e i costi salgono. DeepSeek ha risolto il problema con un’architettura folle: nella versione Pro, la memoria cache si riduce del 90% rispetto al modello precedente. Non solo: i FLOP necessari per ogni token calano del 73%. Il modello Flash è ancora più estremo: usa solo il 10% dei FLOP e il 7% della cache.

Una sforbiciata che trasforma compiti un tempo proibitivi – ragionare su interi manuali, codebase enormi, interi film – in operazioni da pochi centesimi.

C’è un dato che fa riflettere: in un sondaggio interno su 85 sviluppatori che usano V4-Pro tutti i giorni, il 52% si è detto pronto a sostituire il proprio modello attuale. Numeri che parlano di adozione reale, non solo di teoria da paper.

OpenAI dimezza il prezzo e alza l’asticella

La risposta di Sam Altman non si è fatta attendere. GPT-5.5, appena presentato con disponibilità per tutti i piani, introduce due novità brucianti: costa la metà dei modelli concorrenti per compiti di coding, e riesce a usare significativamente meno token per completare lo stesso lavoro. Come? Ottimizzando il modo in cui genera output. Il risultato è che OpenAI ha dimezzato il prezzo di GPT-5.5 senza sacrificare i tempi di risposta.

E le prestazioni? GPT-5.5 supera Claude Opus 4.7 e Gemini 3.1 Pro in Terminal-Bench 2.0, un benchmark che misura l’abilità di eseguire compiti complessi su terminale. La versione Pro, inoltre, batta i stessi rivali in BrowseComp, un test di navigazione e sintesi di informazioni dal web. Due vittorie nette in aree dove i concorrenti erano considerati leader.

Il vero vincitore? La tasca dello sviluppatore

La competizione non è mai stata così salutare. DeepSeek ha abbattuto la barriera del contesto lungo, OpenAI ha compresso i costi del coding. Il risultato è che chiunque – dal freelancer che costruisce un assistente AI per il proprio studio, alla PMI che automatizza il customer care – può oggi accedere a un’intelligenza artificiale di prima fascia spendendo quello che un anno fa si pagava per un modello base.

Ma c’è un rovescio da tenere d’occhio: la corsa all’efficienza non elimina i rischi di privacy. Modelli più economici significano più dati nel cloud, più agenti autonomi in circolazione. Se uno sviluppatore può permettersi di far analizzare milioni di token di conversazioni aziendali, chi garantisce che quei dati non finiscano in qualche pipeline di training? La scelta consapevole del provider – trasparenza sulle policy, opzioni di data deletion – resta più importante che mai.

Nei prossimi mesi assisteremo a un’accelerazione: altri modelli dovranno adeguarsi o sparire. E forse, per la prima volta, l’AI diventerà davvero una commodity: potente, economica, usata da tutti. Il bello è che non abbiamo ancora visto il meglio.

🍪 Impostazioni Cookie