La fuga di cervelli da Thinking Machines Lab e il ritorno a OpenAI: una farsa nella Silicon Valley

La fuga di cervelli da Thinking Machines Lab e il ritorno a OpenAI: una farsa nella Silicon Valley

Quando l’etica diventa sacrificabile: i miliardi, i talenti e le zone d’ombra della Silicon Valley

C’è qualcosa di profondamente grottesco in quello che sta accadendo nelle ultime ore in Silicon Valley, una farsa che se non coinvolgesse miliardi di dollari e i dati personali di mezzo mondo, farebbe quasi sorridere.

Siamo al 15 gennaio 2026 e la soap opera dell’intelligenza artificiale ci ha appena regalato un nuovo episodio che svela, meglio di mille inchieste, quanto sia fragile e incestuoso questo settore.

Ricordate Mira Murati?

L’ex CTO di OpenAI che, con un colpo di teatro degno di Shakespeare, aveva sbattuto la porta in faccia a Sam Altman nel settembre 2024 per fondare la sua “Thinking Machines Lab”? Sembrava l’inizio di una nuova era, la promessa di un’alternativa più etica, o almeno diversa, al monopolio di ChatGPT.

Ebbene, quella promessa si è appena sgretolata, non sotto il peso della tecnologia, ma sotto quello dell’opportunismo più sfrenato.

I co-fondatori che l’avevano seguita in questa crociata, Barret Zoph e Luke Metz, hanno fatto dietrofront. Non stanno semplicemente lasciando la nave che affonda; stanno tornando esattamente da dove erano fuggiti.

Nelle ultime ore, OpenAI ha confermato l’assunzione di tre membri chiave dello staff, riaccogliendo i “figliol prodighi” come se nulla fosse accaduto.

Ma dietro i sorrisi di circostanza e i tweet entusiasti, si nasconde una realtà ben più inquietante per chiunque si preoccupi di concorrenza, privacy e concentrazione del potere.

Il grande bluff da 12 miliardi

Per capire la gravità della situazione, bisogna seguire i soldi. E ce ne sono tanti.

Solo sei mesi fa, Thinking Machines Lab ha raccolto un colossale round di finanziamento iniziale da 2 miliardi di dollari, raggiungendo una valutazione teorica di 12 miliardi.

Avete letto bene: 12 miliardi di dollari per un’azienda che non aveva ancora spedito un prodotto, basata quasi interamente sulla reputazione del suo team fondatore.

Ora che quel team è stato decapitato, con il CTO e i ricercatori di punta che tornano alla base madre, cosa resta di quei miliardi? È la dimostrazione plastica di una bolla speculativa che premia le narrazioni rispetto alla sostanza.

Gli investitori come Andreessen Horowitz e Nvidia hanno versato fiumi di denaro in una scatola che ora si rivela mezza vuota.

Ma il problema non è solo finanziario: è strutturale.

Se una startup con 2 miliardi in cassa non riesce a trattenere i suoi fondatori di fronte al richiamo (e probabilmente ai pacchetti azionari) di OpenAI, quale speranza ha il resto del mercato? Stiamo assistendo a una consolidazione forzata dove le Big Tech non hanno nemmeno più bisogno di acquisire le aziende rivali: si limitano a risucchiarne il talento, svuotandole dall’interno e lasciando i gusci vuoti a galleggiare sul mercato.

E chi paga il conto?

Noi, con un mercato meno competitivo e meno alternative per la tutela dei nostri dati.

Ma c’è un dettaglio ancora più oscuro in questa transizione, che la stampa generalista sta ignorando.

Porte girevoli e zone d’ombra etiche

Non è solo una questione di “talenti che si spostano”. Le modalità di questo trasferimento sollevano dubbi pesantissimi sulla cultura aziendale di questi giganti che pretendono di costruire l’intelligenza artificiale “sicura” per l’umanità.

Le voci di corridoio sono feroci e contraddicono la narrativa ufficiale del “separarsi in amicizia”.

Alcuni report suggeriscono che Barret Zoph sia stato licenziato per presunta condotta non etica immediatamente prima del suo ritorno, un dettaglio che getta un’ombra sinistra sull’intera operazione.

Se queste indiscrezioni fossero confermate, ci troveremmo di fronte a un paradosso allarmante: un dirigente allontanato per questioni etiche da una startup viene immediatamente riassunto dal leader mondiale dell’AI.

Eppure, la reazione ufficiale è stata di un freddo distacco burocratico. Mira Murati ha tentato di mantenere il controllo della narrazione con una dichiarazione che trasuda aziendalese:

Abbiamo preso strade diverse da Barret.

— Mira Murati, Fondatrice e CEO di Thinking Machines Lab

Nessuna menzione delle cause, nessun dettaglio. Solo un rapido annuncio del sostituto, Soumith Chintala, definito un “leader brillante ed esperto”.

Ma il danno è fatto.

Questo valzer di poltrone dimostra che in Silicon Valley la “sicurezza” e l'”etica” sono spesso solo argomenti di marketing, pronti a essere sacrificati sull’altare della velocità di sviluppo e dell’accumulo di talenti.

Se le persone che costruiscono i modelli che useranno i nostri dati sanitari, finanziari e personali saltano da una parte all’altra con questa disinvoltura, portandosi dietro segreti industriali e forse cattive abitudini, come possiamo fidarci della compliance al GDPR o delle promesse sulla privacy?

È qui che il cerchio si chiude, stringendosi attorno all’utente finale.

La dittatura dell’algoritmo unico

Il ritorno di Zoph, Metz e Schoenholz a OpenAI non è una semplice notizia di HR. È un segnale politico.

Fidji Simo, CEO of Applications di OpenAI, non ha nascosto la sua soddisfazione, confermando che il piano era in lavorazione da settimane:

Barret Zoph, Luke Metz e Sam Schoenholz tornano a OpenAI.

— Fidji Simo, CEO of Applications presso OpenAI

L’entusiasmo di Zoph, che si è dichiarato “super eccitato” di tornare, suona stonato di fronte al fallimento del progetto che aveva giurato di costruire solo un anno fa.

Ma il vero rischio è la centralizzazione della conoscenza.

Quando tutti i massimi esperti di Large Language Models e scaling si concentrano in un’unica azienda, si crea un’asimmetria informativa pericolosa.

OpenAI sta diventando l’ente regolatore di sé stesso. Accumulando i talenti che dovrebbero creare alternative, elimina la possibilità di avere sistemi diversi, con approcci alla privacy diversi. Se Thinking Machines Lab avesse avuto successo, avremmo potuto vedere un modello con un focus diverso sulla gestione dei dati.

Ora, quella possibilità si allontana.

Ci ritroviamo con un unico gigante che detta legge, mentre le autorità antitrust sembrano guardare altrove, ipnotizzate dalle promesse dell’AGI (Intelligenza Artificiale Generale).

Siamo di fronte a un ecosistema cannibale.

Le startup servono solo come incubatori temporanei per testare idee o parcheggiare talenti finché la casa madre non decide di richiamarli. E in tutto questo, la trasparenza è la prima vittima. Non sappiamo quali dati siano stati condivisi, quali accordi di non concorrenza siano stati stracciati, o quali garanzie di sicurezza siano state bypassate per facilitare questi ritorni lampo.

La domanda che dovremmo porci, mentre osserviamo questi miliardi spostarsi come fiches su un tavolo da gioco, non è chi vincerà la guerra dell’IA.

La domanda vera è: se l’etica è sacrificabile per un’assunzione, che valore ha la nostra privacy per queste aziende quando non ci sono i riflettori puntati?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie