OpenAI scioglie team interni, investe 7.5M in allineamento AI esterno.

OpenAI scioglie team interni, investe 7.5M in allineamento AI esterno.

OpenAI finanzia The Alignment Project con 7,5 milioni di dollari per la sicurezza IA, ma scioglie il suo team interno di allineamento.

La decisione di finanziare The Alignment Project arriva a una settimana dallo smantellamento del team interno di sicurezza, sollevando interrogativi sulla strategia duale dell’azienda.

OpenAI ha annunciato un finanziamento a The Alignment Project, un fondo di ricerca globale gestito dall’istituto britannico per la sicurezza dell’intelligenza artificiale (UK AISI). La somma, amministrata da Renaissance Philanthropy, porta il totale del fondo a oltre 34 milioni di dollari, raffigurandosi come una delle più cospicue risorse dedicate alla ricerca indipendente sulla sicurezza dell’IA.

L’annuncio arriva a una settimana esatta dallo smantellamento interno del “Mission Alignment Team” di OpenAI, un gruppo formato nel 2024 per garantire che i sistemi di IA fossero sicuri e affidabili. Il suo leader, Joshua Achiam, è stato trasferito al nuovo ruolo di “Chief Futurist”, mentre gli altri sei o sette membri sono stati riassegnati ad altri dipartimenti.

Un portavoce di OpenAI ha definito la cosa una “riorganizzazione di routine”, spiegando che le attività di allineamento sono ora integrate nel lavoro dell’intera azienda.

La coincidenza temporale tra la chiusura di un team interno dedicato alla sicurezza e l’aumento dei fondi per la ricerca esterna solleva domande sulle priorità reali del laboratorio all’avanguardia.

Una strategia in due tempi: dentro si consolida, fuori si finanzia

La mossa di OpenAI sembra rispecchiare una strategia duale sempre più netta. Da un lato, l’azienda consolida e internalizza gli sforzi di allineamento, abbandonando strutture dedicate per farli confluire in tutti i team di sviluppo. Dall’altro, destina risorse significative a enti di ricerca esterni, riconoscendo esplicitamente che “garantire che l’IA avanzata sia sicura e benefica per tutti non può essere raggiunto da una singola organizzazione”.

Nel suo post sul blog di ricerca, OpenAI delinea un approccio pragmatico basato su tre pilastri: addestrare sistemi di IA usando il feedback umano, addestrarli ad assistere la valutazione umana e addestrarli a fare ricerca sull’allineamento.

È un framework ingegneristico, iterativo, che punta a creare un segnale di addestramento scalabile per sistemi di IA sempre più intelligenti.

Ma è un approccio che, per sua natura, si sviluppa all’interno del laboratorio, dietro le porte chiuse dei modelli proprietari e degli enormi cluster di GPU.

È qui che entra in gioco il finanziamento esterno. The Alignment Project, e in generale il settore della ricerca indipendente, rappresentano un contrappeso necessario. Organizzazioni come l’Alignment Research Center (ARC), fondato dall’ex ricercatore di OpenAI Paul Christiano, perseguono metodologie profondamente diverse. Mentre OpenAI si affida a tecniche empiriche e su larga scala come il Reinforcement Learning from Human Feedback (RLHF), l’ARC punta su una comprensione formale e meccanicistica del funzionamento interno delle reti neurali.

Il loro obiettivo è capovolgere l’ingegneria dei pesi delle reti neurali in programmi comprensibili all’uomo e sviluppare argomentazioni euristiche formali per identificare nuovi dati che inneschino comportamenti insoliti all’interno del modello.

È ricerca fondamentale, spesso teorica, il cui valore sta nella trasparenza e nella verificabilità, non nella scalabilità immediata.

Per Christiano e l’ARC, una delle sfide centrali è il problema della Conoscenza Latente Nascosta (ELK), per cui hanno offerto premi per algoritmi proposti per elicitare conoscenza latente.

La tensione tra trasparenza e vantaggio competitivo

Il sostegno finanziario di OpenAI a questo tipo di ricerca solleva un paradosso interessante. Da un lato, l’azienda dichiara di essere “impegnata a condividere apertamente la sua ricerca sull’allineamento quando è sicuro farlo”, con l’obiettivo di far sì che “ogni sviluppatore di AGI utilizzi le migliori tecniche di allineamento del mondo”.

Dall’altro, la sua sopravvivenza e il suo strapiù valutativo (si parla di un’ipotetica capitalizzazione di oltre 500 miliardi di dollari) dipendono da un vantaggio competitivo custodito in architetture, dati e tecniche proprietarie.

Finanziare ricerca esterna open e teorica può essere visto come un modo per esternalizzare una parte del rischio, ottenendo al contempo un ritorno di immagine e l’accesso a intuizioni che potrebbero essere troppo rischiose o poco scalabili da sviluppare in-house.

Ma crea anche una dipendenza: il progresso nella sicurezza dell’IA più profonda e verificabile avviene sempre più al di fuori dei grandi laboratori.

Questa tensione si riflette nelle scelte di governance. I documenti che descrivono la metodologia degli indicatori mondiali di governance sottolineano l’importanza di accountability, stabilità regolatoria e controllo della corruzione.

Sono principi che, traslati nel mondo della ricerca sull’IA, si traducono in richieste di audit indipendenti, accesso ai modelli per ricercatori esterni e meccanismi di supervisione chiari.

Tuttavia, la struttura stessa del finanziamento – una donazione a un fondo amministrato da una filantropia – lascia un ampio margine di discrezionalità a OpenAI sulla selezione dei progetti e sull’uso dei risultati. Nel contesto più ampio della regolamentazione europea, che punta a armonizzare il piano coordinato sull’intelligenza artificiale, questa discrezionalità privata potrebbe entrare in conflitto con le aspettative pubbliche di standardizzazione e controllo.

Alla fine, la mossa di OpenAI del febbraio 2026 sembra dettata da un calcolo razionale ma anche dalla necessità.

Razionale, perché diversifica gli approcci alla sicurezza in un campo dove non esiste una soluzione nota.

Necessaria, perché dopo aver smantellato il team interno dedicato, l’azienda deve poter dimostrare a regolatori, investitori e all’opinione pubblica che la sicurezza non è un optional sacrificabile sull’altare della scalabilità commerciale.

Il rischio è che, in assenza di una supervisione pubblica robusta e di meccanismi trasparenti per il finanziamento della ricerca indipendente, anche i 7,5 milioni di dollari possano diventare poco più di un’operazione di relazioni pubbliche sofisticata.

La domanda che rimane è se la comunità della ricerca sull’allineamento, il cui scopo è tenere sotto controllo i sistemi più potenti, riuscirà a sua volta a tenere sotto controllo e a rendere realmente accountable i laboratori che la finanziano.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie