Quattro volte più veloce, il 20% più economico: GPT Image 1.5 e la corsa che non si può fermare
OpenAI ha presentato GPT Image 1.5, un modello di generazione immagini quattro volte più veloce e con costi ridotti del 20% rispetto alla versione precedente.
Il modello arriva mentre Google lancia Nano Banana e OpenAI ritirerà DALL·E 3 a maggio 2026.
Quattro volte più veloce e contemporaneamente più economico del 20%. Sono numeri che, messi insieme, non tornano — o almeno, non tornano secondo la logica tradizionale del mercato tecnologico, dove le prestazioni migliori si pagano di più. Eppure è esattamente quello che OpenAI ha annunciato lo scorso 16 dicembre 2025, con il lancio di ChatGPT Images e il nuovo modello di generazione di immagini GPT Image 1.5. La domanda vera non è se il modello funzioni — probabilmente sì — ma perché OpenAI stia accelerando così, e a vantaggio di chi.
Il paradosso della velocità e del risparmio
I dati, per cominciare. GPT Image 1.5 è disponibile nell’API e, secondo quanto dichiarato direttamente da OpenAI, genera immagini fino a quattro volte più velocemente rispetto alla versione precedente, seguendo le istruzioni in modo più affidabile e garantendo modifiche precise senza perdere i dettagli. Gli input e gli output delle immagini costano il 20% in meno rispetto a GPT Image 1. Tutto questo in pochi mesi: il primo modello della famiglia GPT Image era stato presentato già lo scorso marzo 2025, come generazione di immagini basata su GPT-4o, stando alla pagina Wikipedia di GPT Image. A ottobre dello stesso anno era arrivata una versione economica, GPT Image 1 Mini, presentata all’OpenAI DevDay. Ora, a dicembre, arriva 1.5. Tre iterazioni significative in meno di un anno.
Più veloce e più economico insieme suona bene per chi usa il servizio. Ma ogni riduzione di prezzo è anche una dichiarazione di guerra verso i concorrenti — un segnale che OpenAI può permettersi di abbassare i margini perché punta al volume, alla dipendenza, alla quota di mercato. La velocità di rilascio lascia poco spazio per respirare a chi prova a stare al passo. E qui si apre la domanda che il comunicato stampa ovviamente non fa: chi ci guadagna davvero?
La guerra delle nuvole: chi ci guadagna davvero?
La risposta diretta è: OpenAI, certo. Ma anche — e questo è il punto meno raccontato — i grandi provider di cloud computing. Secondo il report di FinancialContent sul lancio di GPT Image 1.5, il rilascio del nuovo modello è destinato ad aumentare la domanda di risorse computazionali per Amazon Web Services, Microsoft Azure e Google Cloud. Più utenti usano modelli di generazione di immagini avanzati, più GPU vengono affittate, più i datacenter girano a pieno regime. Il paradosso è sottile ma reale: OpenAI abbassa i prezzi per l’utente finale, ma alimenta la macchina di infrastrutture su cui lei stessa — e i suoi concorrenti — dipendono. Un circolo che fa comodo a tutti tranne, forse, all’ambiente.
Sul fronte competitivo, il quadro è altrettanto interessante. Mentre OpenAI consolida la sua posizione di leader nello spazio AI generativa, Google non è rimasta ferma: i suoi modelli Nano Banana e Nano Banana Pro hanno catturato l’attenzione del mercato nei mesi scorsi, secondo quanto riportato nell’articolo di Officechai sul confronto tra le due offerte. Non è un caso che GPT Image 1.5 sia arrivato proprio in quel momento: il tempismo degli annunci nel settore AI raramente è neutro. OpenAI sa che Google ha mosso pedine importanti, e risponde con numeri difficili da ignorare.
Un futuro incerto: domande irrisolte
C’è però un appuntamento già in calendario che vale la pena tenere a mente. OpenAI ha annunciato il ritiro del modello DALL·E 3 per il prossimo maggio 2026. Una mossa che sembra logica — perché mantenere un modello precedente quando ne hai uno più veloce e più economico? — ma che ha implicazioni concrete per chi ha costruito prodotti su DALL·E 3. La deprecazione forzata di un modello su cui migliaia di sviluppatori si sono appoggiati solleva domande di dipendenza tecnologica che i regolatori europei, nel contesto dell’AI Act e delle norme antitrust, non possono ignorare a lungo. Quando un’azienda controlla abbastanza del mercato da poter decidere unilateralmente quali strumenti restano vivi e quali vengono spenti, siamo già in un territorio che merita attenzione.
E poi c’è la questione delle risorse. Modelli più veloci, più usati, più integrati in piattaforme di terze parti significano un consumo computazionale in crescita. La narrativa pubblica di OpenAI parla di efficienza — costi ridotti, velocità aumentata — ma efficienza per chi paga l’API non equivale necessariamente a efficienza energetica globale. Questa corsa all’AI generativa, accelerata da modelli sempre più potenti e rilasciati con cadenza sempre più ravvicinata, rischia di superare i limiti delle risorse disponibili? O stiamo semplicemente assistendo al normale ciclo di un mercato che trova i suoi equilibri? La risposta onesta è che non lo sappiamo ancora. E questo, di per sé, dovrebbe rendere chiunque almeno un po’ cauto nell’applaudire ogni nuovo lancio senza chiedersi dove porta.
Mentre OpenAI continua a spingere i limiti dell’AI generativa — tre versioni significative in meno di un anno, un concorrente già in uscita di scena a maggio — la domanda rimane aperta: questa accelerazione senza fine è sostenibile, o prepara il terreno per una crisi delle risorse e nuovi interventi normativi? Il mercato per ora applaude. I regolatori, probabilmente, stanno prendendo appunti.