OpenAI ha smesso di lavorare solo con Microsoft

OpenAI ha smesso di lavorare solo con Microsoft

OpenAI ha rilasciato GPT-5.5 e Codex su Amazon Bedrock, integrandoli con i controlli enterprise AWS come IAM e PrivateLink.

L’accordo esclusivo con Azure è stato il perno dell’infrastruttura OpenAI per quasi tre anni

Per quasi tre anni, se volevi portare GPT in produzione, l’unica strada percorribile passava da Azure. Era scritto nero su bianco già a gennaio 2023: secondo l’accordo Microsoft-OpenAI sull’estensione della partnership, Azure era “the exclusive cloud provider” di OpenAI, a cui venivano affidati tutti i carichi di lavoro — ricerca, prodotti, API. Un vincolo che ha plasmato le architetture di migliaia di team. Ora quel vincolo si è allentato: nei giorni scorsi OpenAI ha annunciato il lancio dei propri modelli, incluso GPT-5.5, su Amazon Bedrock — e il modo in cui l’integrazione è costruita dice molto su dove sta andando il settore.

Sotto il cofano di Bedrock

Entriamo nel dettaglio implementativo. Stando a quanto comunicato da OpenAI nel annuncio ufficiale della disponibilità su AWS, i modelli ora disponibili su Bedrock includono il modello frontier GPT-5.5 e Codex — quest’ultimo in limited preview. Ma la vera notizia non è tanto l’accesso ai modelli in sé, quanto il livello di integrazione con il piano di controllo AWS.

Secondo quanto comunicato da Amazon, i modelli OpenAI su Bedrock ereditano l’intero stack di enterprise controls che i clienti AWS già usano per il resto dei loro workload: gestione degli accessi tramite IAM, connettività privata via AWS PrivateLink (niente traffico che transita sulla rete pubblica), crittografia dei dati sia a riposo che in transito, logging completo attraverso AWS CloudTrail, e integrazione con i framework di compliance esistenti. In pratica, il comunicato AWS su Bedrock e OpenAI chiarisce che per la prima volta i clienti AWS potranno accedere ai modelli frontier di OpenAI attraverso gli stessi servizi che già usano per l’accesso ai modelli, il fine-tuning e l’orchestrazione. Non serve una nuova console, non serve gestire credenziali separate, non serve ridisegnare la propria rete.

Questo ha un peso concreto per chi costruisce sistemi in produzione. IAM significa che puoi gestire i permessi di accesso a GPT-5.5 con le stesse policy che usi per un bucket S3 o un cluster EKS. PrivateLink significa che le chiamate al modello restano all’interno del VPC e non escono mai verso internet. CloudTrail significa audit log nativi, senza integrazioni custom. Per i team con requisiti di compliance — fintech, healthcare, pubblica amministrazione — questo abbassa significativamente la barriera di adozione rispetto a dover costruire tutto il layer di sicurezza sopra un’API esposta pubblicamente. Su Codex vale la pena citare i numeri: oltre 4 milioni di persone lo usano ogni settimana, un dato che rende la disponibilità su Bedrock — anche se in preview limitata — tutt’altro che simbolica.

Il bivio per chi costruisce

Se da un lato l’integrazione tecnica è pulita, dall’altro il posizionamento strategico di AWS è ambivalente, e chi architetta sistemi farebbe bene a tenerlo a mente. Amazon ha stretto un accordo separato con Anthropic — già nel settembre 2023, come riportato dall’annuncio della partnership Anthropic-Amazon — investendo fino a 4 miliardi di dollari e diventando il principale cloud provider di Anthropic per i carichi di lavoro mission critical. Oggi Bedrock ospita quindi sia Claude che GPT-5.5: due modelli concorrenti, entrambi disponibili tramite la stessa API, entrambi racchiusi negli stessi controlli enterprise.

Per uno sviluppatore, questo è in teoria un vantaggio: puoi fare routing tra modelli diversi senza cambiare infrastruttura, senza riscrivere il layer di autenticazione, senza negoziare contratti con provider multipli. Multi-cloud AI senza il peso operativo del multi-cloud tradizionale. Ma la domanda rimane aperta: conviene costruire i propri sistemi su un’infrastruttura gestita da chi ha interessi diretti nei modelli che ti ospita? AWS non è neutrale — ha una quota di Anthropic, ha incentivi commerciali ben precisi, e le scelte su quali funzionalità esporre per quale modello non sono mai puramente tecniche.

Il risultato netto è che l’architettura del cloud AI si sta frammentando in modo interessante: non più un singolo provider per ogni modello, ma marketplace di inference con controlli enterprise unificati. Chi costruisce ha più scelta di prima — ma scegliere bene richiede di capire non solo le specifiche tecniche, bensì anche gli incentivi di chi gestisce lo strato infrastrutturale sotto.

🍪 Impostazioni Cookie