OpenAI sotto processo: i commenti nel codice svelano la vera storia
La decisione del giudice federale svela un’architettura di governance ambigua, dove la facciata non-profit nasconde un’anima orientata al profitto e all’acquisizione di risorse.
Se c’è una cosa che ogni sviluppatore impara presto a sue spese, è che i commenti nel codice spesso raccontano una storia più veritiera della documentazione ufficiale. Se la documentazione è il marketing — pulita, promettente, idealista — i commenti e i log dei commit sono la realtà cruda, dove si vedono le scorciatoie, i “TODO” mai risolti e le pezze tecniche applicate all’ultimo minuto.
Ieri, in un tribunale di Oakland, un giudice federale ha deciso di aprire i log del repository più importante del decennio: OpenAI. La decisione di mandare a processo Sam Altman, Greg Brockman e Microsoft nella causa intentata da Elon Musk non è solo una notizia giudiziaria. È il momento in cui l’architettura di governance dell’azienda simbolo dell’intelligenza artificiale viene sottoposta a un’analisi forense, rivelando che il “bug” originale potrebbe non essere stato un errore, ma una feature progettata fin dal principio.
Ciò che emerge dalle carte processuali è un quadro tecnicamente affascinante e moralmente ambiguo, dove la struttura “non-profit” sembra aver agito più come un wrapper — un’interfaccia utente rassicurante — sopra un kernel progettato per la massimizzazione del profitto e l’acquisizione di risorse computazionali su scala planetaria.
L’architettura del “non-profit” come interfaccia utente
Per anni, la narrativa ufficiale è stata quella di un laboratorio di ricerca nato per salvare l’umanità dai rischi dell’AGI (Artificial General Intelligence), operando al di fuori delle logiche di mercato. Tuttavia, le email interne del 2017, ora rese pubbliche e centrali nella decisione del giudice, mostrano una discrepanza fondamentale tra il frontend pubblico e il backend decisionale.
Greg Brockman e Shivon Zilis, figure chiave nell’ecosistema, discutevano esplicitamente della difficoltà di mantenere la facciata non-profit mentre cercavano di attrarre i capitali necessari per competere con Google e DeepMind.
Non si trattava di ingenuità, ma di calcolo.
In un mondo dove l’addestramento dei modelli richiede cluster di GPU che costano quanto il PIL di una piccola nazione, l’idealismo open source si scontra con la brutale realtà dell’hardware.
Tuttavia, il problema sollevato dal team legale di Musk è che questa transizione non è stata gestita come un aggiornamento trasparente dei termini di servizio, ma come un’operazione di offuscamento. Come ha dichiarato l’avvocato di Musk, Marc Toberoff, commentando la decisione del tribunale:
Ci sono prove sostanziali che la leadership di OpenAI abbia fornito rassicurazioni consapevolmente false al signor Musk riguardo alla sua missione caritatevole, che non hanno mai onorato a favore del loro personale arricchimento.
— Marc Toberoff, Avvocato del team legale di Elon Musk
La gravità della situazione risiede nel fatto che un giudice federale ha respinto le richieste di archiviazione presentate da OpenAI e Microsoft, citando proprio queste comunicazioni interne come base sufficiente per procedere con le accuse di frode.
È come scoprire che una libreria crittografica open source conteneva una backdoor intenzionale per l’autore fin dal primo commit.
Il refactoring forzato e la “light cone”
Dal punto di vista ingegneristico, la trasformazione di OpenAI è stata un capolavoro di ingegneria societaria, complessa quanto l’architettura di GPT-4. L’azienda è passata da una pura non-profit a un ibrido “capped-profit”, fino alla recente ristrutturazione in Public Benefit Corporation (PBC).
Questo refactoring continuo ha permesso di iniettare miliardi di dollari di liquidità — principalmente da Microsoft — mantenendo però un controllo centralizzato che, teoricamente, avrebbe dovuto rispondere alla non-profit originale.
Questa struttura bizantina ha iniziato a scricchiolare sotto il peso della sua stessa ambizione. Quando Sam Altman parla del valore potenziale dell’AGI, non usa termini finanziari standard, ma concetti quasi fisici, parlando di catturare il “cono di luce” del valore futuro. È una visione che trascende il capitalismo tradizionale per entrare nel territorio della fantascienza messianica.
Catturare il cono di luce di tutto il valore futuro nell’universo.
— Sam Altman, CEO di OpenAI
Il problema tecnico di questo approccio è che presuppone una fiducia cieca nell’operatore del sistema. Musk, che ha co-fondato l’organizzazione investendo oltre 44 milioni di dollari (una cifra che oggi sembra irrisoria rispetto ai 97 miliardi del bid fallito del 2025), sostiene di aver finanziato un sistema operativo Linux per l’AI, per poi ritrovarsi davanti a un sistema proprietario chiuso come macOS.
La tensione tra la missione dichiarata e le azioni intraprese è evidente. Mentre internamente si discuteva di profit cap e strutture societarie, pubblicamente si vendeva l’idea che l’umanità fosse il principale stakeholder. Eppure, in un momento critico del 2021, Sam Altman ha delineato la ristrutturazione aziendale ammettendo implicitamente che i limiti agli investitori stavano diventando sempre più laschi per accomodare la necessità di capitale infinito.
Open Source vs Open Wallet
La vera ironia tecnica di questa saga è che la “Open” nel nome dell’azienda è diventata un puntatore nullo (null pointer). La chiusura del codice sorgente, giustificata con motivi di sicurezza, coincide sospettosamente con la scoperta che quei modelli sono prodotti commerciali di inestimabile valore.
La trasparenza è stata sacrificata sull’altare della scalabilità e della sicurezza percepita, creando un “black box” non solo algoritmico, ma anche aziendale.
Il tentativo di garbage collection avvenuto nel novembre 2023, quando il vecchio consiglio di amministrazione cercò di rimuovere Altman, fu l’ultimo tentativo del sistema immunitario della non-profit di rigettare l’organo estraneo del for-profit.
Il fallimento di quel tentativo, con il ritorno trionfale di Altman e l’estromissione dei puristi della sicurezza, ha segnato la fine dell’esperimento originale. È rilevante ricordare che in quell’occasione il consiglio di amministrazione ha licenziato Sam Altman per mancanza di trasparenza, un’accusa che oggi risuona sinistramente simile a quelle mosse da Musk nel suo processo.
Greg Brockman, in una nota privata del 2017 citata dal giudice, aveva già previsto questo scenario di ambiguità:
Non posso dire che ci impegniamo per il non-profit. Non voglio dire che ci impegniamo. Se tre mesi dopo diventiamo una b-corp, allora è stata una bugia.
— Greg Brockman, Co-fondatore di OpenAI
Oggi, quella che Brockman temeva sarebbe stata una bugia è diventata la struttura operativa standard.
Siamo di fronte a un caso in cui il debito tecnico non è nel codice Python o nei pesi della rete neurale, ma nelle fondamenta etiche e legali dell’azienda. Il processo che sta per iniziare non deciderà solo chi ha ragione tra due miliardari della Silicon Valley; definirà se è possibile fare open source con una mano mentre si firma un accordo di esclusiva multimiliardario con l’altra.
Se l’AGI deve essere sviluppata, vogliamo davvero che il suo codice sorgente etico sia compilato in un binario che nessuno, a parte gli azionisti, può decompilare?