OpenAI ha rotto l'esclusiva con Microsoft

OpenAI ha rotto l’esclusiva con Microsoft

OpenAI rompe l'esclusiva con Microsoft: i modelli originali e Codex sono ora disponibili su Amazon Bedrock in anteprima limitata.

L’accordo di esclusiva con Microsoft ha compresso la domanda enterprise, ora liberata su AWS

Da oggi, secondo l’annuncio ufficiale di Amazon, i modelli OpenAI più recenti sono disponibili — in anteprima limitata — su Amazon Bedrock. Non un fork, non un modello distillato, non un wrapper non ufficiale: l’originale OpenAI, chiamabile direttamente dall’infrastruttura AWS. E insieme ai modelli base, arriva anche Codex, l’agente di coding di OpenAI, sempre in limited preview. Più di 4 milioni di sviluppatori lo usano ogni settimana — ora possono farlo senza uscire dall’ambiente Amazon.

Cosa c’è su Bedrock (e cosa no)

L’annuncio di oggi porta tre novità concrete: i modelli OpenAI di ultima generazione accessibili tramite le API di Bedrock, Codex in anteprima limitata, e Amazon Bedrock Managed Agents powered by OpenAI — uno strumento che permette di costruire agenti pronti per la produzione direttamente nel cloud Amazon, senza dover orchestrare manualmente l’infrastruttura. Il “managed” non è un dettaglio di marketing: significa che AWS gestisce scaling, routing e stato dell’agente, lasciando allo sviluppatore la logica applicativa. È lo stesso approccio già collaudato con Claude su Bedrock, applicato ora ai modelli OpenAI. La domanda che sorge spontanea, però, è come si è arrivati fin qui — dopo anni in cui OpenAI era di fatto sinonimo di Azure.

I numeri della svolta

La risposta è in una sequenza di accordi che ha ridisegnato la mappa del cloud AI nel giro di pochi mesi. A febbraio 2026, secondo il comunicato sulla partnership tra OpenAI e Amazon, le due aziende hanno annunciato una partnership strategica pluriennale: Amazon investirà fino a 50 miliardi di dollari in OpenAI, partendo da un primo tranche da 15 miliardi, con altri 35 miliardi condizionati al rispetto di determinate milestone. Ma c’è anche il lato opposto del bilancio: già a novembre 2025, OpenAI aveva firmato un accordo per acquistare 38 miliardi di dollari di capacità compute da AWS. Non è un dettaglio contabile: significa che OpenAI punta su AWS come infrastruttura primaria di training e inference, non solo come canale distributivo.

Sullo sfondo c’è una tensione che OpenAI ha ammesso apertamente. In un memo interno riportato da CNBC e datato 13 aprile 2026, la società ha scritto senza giri di parole: «La nostra partnership con Microsoft è stata fondamentale per il nostro successo. Ma ha anche limitato la nostra capacità di incontrare le imprese dove si trovano — e per molte di esse, quel posto è Bedrock». La domanda inbound ricevuta dopo l’annuncio di febbraio è stata definita nel memo «francamente sbalorditiva». Il segnale è chiaro: c’era una domanda enterprise repressa che l’accordo di esclusività con Microsoft stava comprimendo. E ora quella valvola è aperta. Vale la pena notare anche il contesto competitivo: Amazon ha già stretto un accordo parallelo con Anthropic, con un investimento aggiuntivo di Amazon da 5 miliardi oggi, con opzione fino a 20 miliardi aggiuntivi in futuro. Anthropic, tra l’altro, utilizzerà fino a 5 gigawatt dei chip Trainium di Amazon per addestrare i propri modelli — la stessa infrastruttura hardware che ora diventa il substrato su cui girerà anche OpenAI.

Cosa significa per chi costruisce

Con oltre 100.000 clienti che già eseguono i modelli Claude di Anthropic su AWS, Bedrock era già un hub serio per il deployment di LLM in produzione. L’arrivo di OpenAI non è solo un ampliamento del catalogo: è un cambio di posizionamento. Bedrock smette di essere “la piattaforma per Claude” e diventa un layer di astrazione su più famiglie di modelli, con un’interfaccia unificata per gestire inference, agenti e orchestrazione. Per uno sviluppatore che oggi sceglie dove costruire il proprio stack AI, questo significa poter confrontare GPT e Claude sullo stesso substrate, con le stesse garanzie di SLA, the stessa pipeline di logging e monitoring, senza dover mantenere integrazioni separate verso Azure OpenAI Service da una parte e AWS Bedrock dall’altra.

Il trade-off da considerare è quello classico tra flessibilità e lock-in. Affidarsi a Bedrock come orchestratore unico semplifica l’operatività, ma introduce una dipendenza da AWS per funzioni che prima erano distribuite. Se domani OpenAI cambia i termini di accesso via Bedrock — o Amazon decide di favorire Anthropic nei pricing tier — chi ha costruito tutto su Bedrock managed agents si trova con poco spazio di manovra. Il multi-cloud AI è reale, ma l’indipendenza vera richiederebbe un layer di astrazione ancora più in alto, tipo un’interfaccia OpenAI-compatible self-hosted o un proxy come LiteLLM, che permetta di switchare provider senza toccare il codice applicativo.

La domanda che resta aperta è quanto durerà questa finestra di apertura. Per ora, la competizione tra i grandi cloud ha prodotto un effetto inatteso e benvenuto: i modelli migliori disponibili su più piattaforme, con meno friczione per il developer. Lo sviluppatore vince — può scegliere il modello più adatto al task senza essere costretto a migrare l’intera infrastruttura. Ma l’equilibrio è fragile, costruito su accordi commerciali che possono cambiare. Per ora, godiamocelo mentre dura.

🍪 Impostazioni Cookie