OpenAI GPT-5 automatizza ricerca scientifica: costi sintesi proteica giù del 40%
L’azienda sta infatti costruendo sistemi che puntano a sostituire interi flussi di lavoro intellettuale, a partire dalla ricerca scientifica, come provato da un laboratorio autonomo per la sintesi proteica che ha ridotto i costi del 40%
L’annuncio di OpenAI di inizio febbraio 2026, condensato in un tweet di Sam Altman, sembrava un’altra raffica di aggiornamenti tecnici: il nuovo modello GPT-5.3-Codex, la piattaforma enterprise Frontier, l’avvio dei test per gli annunci in ChatGPT.
Ma a guardare più da vicino, i dettagli rivelano una svolta strategica ben più profonda e, per certi versi, inquietante.
L’azienda non sta più solo affinando chatbot o migliorando benchmark; sta costruendo sistemi che mirano a sostituire interi flussi di lavoro intellettuale, a partire dalla ricerca scientifica.
E mentre accelera verso questa frontiera, le voci critiche al suo interno si fanno più deboli, o vengono messe a tacere.
La prova più tangibile di questa direzione arriva da una collaborazione con Ginkgo Bioworks, resa pubblica il 5 febbraio. In sei mesi, un sistema guidato da GPT-5 ha progettato, eseguito e analizzato in modo autonomo oltre 36.000 esperimenti di sintesi proteica cell-free.
Il risultato non è solo un paper accademico, ma un dato economico concreto: il costo di produzione di una proteina modello è sceso del 40%.
Come ha dichiarato Reshma Shetty, co-fondatrice di Ginkgo Bioworks, il sistema ha scoperto composizioni di reazione notevolmente più economiche dello stato dell’arte precedente.
Questo non è un semplice “assistente per ricercatori”.
È un laboratorio autonomo che itera ipotesi e protocolli senza intervento umano, se non per la preparazione iniziale dei reagenti. L’obiettivo dichiarato da Sam Altman di far sì che i sistemi di IA scoprano nuove conoscenze scientifiche autonome sembra essere già realtà in nicchie sperimentali ben definite.
La corsa verso il ricercatore artificiale e i suoi precedenti storici
L’idea di un’IA per la scoperta scientifica non è nuova. Da anni, laboratori accademici e corporate lavorano per automatizzare parti del processo. Carnegie Mellon University ha sviluppato una “fucina della scienza” basata su IA che utilizza laboratori autonomi, mentre IBM ha creato piattaforme open-source come il Generative Toolkit for Scientific Discovery (GT4SD) per accelerare la generazione di ipotesi. Persino algoritmi come “AI-Hilbert” di IBM sono progettati per generare nuove equazioni matematiche da teorie esistenti.
Ciò che distingue l’approccio di OpenAI è la scala, l’integrazione end-to-end e, soprattutto, la velocità con cui sta portando questi sistemi dal laboratorio al mercato.
Non si tratta più di strumenti per pochi specialisti, ma di servizi integrati in piattaforme come Frontier, pensate per essere deployate in aziende e centri di ricerca.
La road map interna sembra confermare questa urgenza. L’obiettivo, come riportato, è avere un “assistente di ricerca” a livello di dottorando entro settembre 2026, e ricercatori IA completamente autonomi entro il 2028. La nuova piattaforma Frontier e il modello GPT-5.3-Codex sono i mattoni di questo piano.
Codex, in particolare, non è solo un generatore di codice più veloce.
Secondo la scheda di sistema pubblicata da OpenAI, il modello è classificato come ad “alta capacità” nel quadro di sicurezza per compiti di cybersecurity, e mostra capacità preoccupanti nei domini biologico e chimico, pur avendo migliorato alcuni parametri di sicurezza.
È un agente che può interagire con strumenti software e, potenzialmente, con sistemi di laboratorio fisici, prendendo decisioni sequenziali complesse.
La domanda che sorge spontanea è: chi, e cosa, controllerà questi agenti quando saranno impiegati in migliaia di contesti diversi?
La tensione tra accelerazione e sicurezza (e le voci che se ne vanno)
Proprio mentre OpenAI spinge sull’acceleratore della capacità, i segnali di tensione interna sulla sicurezza e sull’etica si moltiplicano. La partenza di figure chiave negli ultimi anni è un indicatore difficile da ignorare. Jan Leike, che guidava la ricerca sulla “superallineamento”, ha lasciato l’azienda nel 2024 dichiarando di essere in disaccordo sulle priorità, sostenendo che OpenAI doveva investire molto di più in sicurezza e preparazione per l’AGI.
Poco dopo, la ricercatrice di policy Gretchen Krueger ha sottolineato la necessità di migliorare processi decisionali, accountability e trasparenza. Più di recente, come riportato, il ricercatore economico Tom Cunningham ha lasciato OpenAI frustrato dalla crescente riluttanza a pubblicare ricerche critiche sull’impatto dell’IA, percependo una pressione affinché il team funzionasse come un “braccio di advocacy” dell’azienda.
Questa tendenza a scoraggiare analisi scomode sembra in contrasto stridente con la retorica della trasparenza e della responsabilità. Da un lato, OpenAI annuncia partnership con esterni per test esterni di sicurezza e “red teaming” e istituisce consigli consultivi per i rischi delle IA di frontiera.
Dall’altro, secondo le ricostruzioni, renderebbe sempre più difficile per i propri ricercatori pubblicare studi che esaminino seriamente la disoccupazione tecnologica o l’instabilità dei mercati causata dall’IA.
È una contraddizione che tocca il cuore del modello di governance dell’azienda: si può essere allo stesso tempo un attore commerciale che compete ferocemente per la supremazia del mercato e un custode fidato che antepone il bene dell’umanità?
La crescente focalizzazione su prodotti enterprise, monetizzazione (con gli annunci in ChatGPT) e automazione radicale suggerisce che la bilancia penda decisamente verso il primo polo.
La visione che emerge dai fatti di febbraio 2026 non è più quella di un laboratorio di ricerca non-profit.
È quella di una potenza tecnologica che sta costruendo l’infrastruttura operativa per la prossima rivoluzione industriale, quella cognitiva. Sta automatizzando non solo il lavoro manuale, ma il processo stesso della scoperta e dell’innovazione.
L’eleganza tecnica dei risultati, come il laboratorio autonomo, è innegabile.
Ma l’architettura di controllo e la trasparenza su cui poggia questa corsa sembrano fragili.
Mentre l’IA inizia a “pensare” e “sperimentare” in spazi sempre più ampi, la domanda più urgente non è cosa sia in grado di fare, ma chi sia in grado di capire, e fermare, ciò che fa.