Sam Altman: l’IA risolverà il lavoro traumatico che la crea?
Il problema irrisolto è il processo di etichettatura dei dati, un lavoro umano spesso traumatico e mal pagato, che l’IA più avanzata di OpenAI, GPT-5.3-Codex, mira ad automatizzare, avendo già iniziato a migliorarsi da sola
Sam Altman, l’amministratore delegato di OpenAI, ha postato su X una frase che sembra uscita da un film di fantascienza: «Non è ancora risolto, ma la 5.3 aiuterà a costruire la cosa che lo risolverà».
Il «non risolto» a cui allude è uno dei nodi più spinosi dell’intelligenza artificiale moderna: il processo di addestramento dei modelli, in particolare la fase di etichettatura dei dati, un lavoro spesso traumatico e mal pagato affidato a migliaia di persone in giro per il mondo. La «5.3» è GPT-5.3-Codex, l’ultimo e più potente modello di OpenAI per il coding agentico, presentato il 5 febbraio.
La promessa implicita è affascinante e inquietante: usare l’IA più avanzata per automatizzare e, forse, eliminare il lavoro umano più doloroso che serve a creare l’IA stessa.
Un paradosso che racchiude le ambizioni, le contraddizioni e le promesse non mantenute dell’intera industria.
Per capire la portata di questa affermazione, bisogna guardare al passato. Fino a poco tempo fa, aziende come OpenAI e Meta si appoggiavano a società di outsourcing come la statunitense Sama per «pulire» gli immensi dataset di addestramento. In Kenya, lavoratori assunti da Sama erano pagati tra 1,46 e 3,74 dollari l’ora per esaminare testi e immagini che descrivevano nel dettaglio violenze sessuali, abusi su minori, automutilazioni e omicidi.
Un lavoro psicologicamente devastante, come denunciato in una causa legale da un ex moderatore, che ha portato a diagnosi di disturbo post-traumatico da stress. OpenAI pagava Sama 12,50 dollari l’ora per questo servizio, ma solo una frazione di quella somma arrivava effettivamente agli annotatori.
È la faccia sporca e spesso nascosta del miracolo dell’IA generativa: modelli che conversano in modo fluido sono stati nutriti da contenuti tossici catalogati da esseri umani sottopagati e traumatizzati.
Ora, OpenAI sembra voler voltare pagina con la forza bruta dell’automazione. GPT-5.3-Codex non è un semplice assistente per scrivere codice. È presentato come il modello più capace per il coding agentico mai rilasciato, in grado non solo di scrivere funzioni ma di gestire interi flussi di lavoro: debug, deployment, scrittura di documentazione, aggiornamento di ticket su Jira.
La novità più rilevante, però, è che una sua versione preliminare è stata usata per «debuggare il proprio ciclo di addestramento, gestire il deployment e diagnosticare i risultati dei test». In sostanza, ha cominciato a costruire se stesso.
Questo è il cuore della dichiarazione di Altman: se un modello può migliorare il proprio processo di creazione, potrebbe un giorno automatizzare anche la preparazione dei dati che lo alimentano, eliminando la necessità di un esercito di umani esposti a horror quotidiani.
L’automazione che punta a sostituire se stessa
Il potenziale di GPT-5.3-Codex va ben oltre la scrittura di codice più efficiente. OpenAI lo classifica come il primo modello ad «alta capacità» per compiti di cybersecurity nel suo quadro di preparazione, il che significa che è addestrato per identificare e correggere vulnerabilità software.
Ma la vera rivoluzione, se realizzata, sarebbe nell’ambito dei dati.
Immaginate un sistema che, invece di richiedere a un essere umano di etichettare migliaia di immagini di incidenti stradali per addestrare un’auto a guida autonoma, sia in grado di generare da solo dataset sintetici, perfetti e già annotati. O che possa setacciare internet, filtrare il contenuto tossico e categorizzarlo secondo criteri complessi, tutto in modo autonomo. Sama stessa, forse vedendo arrivare il treno dell’automazione, ha lanciato strumenti per eliminare il lavoro ripetitivo nell’etichettatura dati.
Il problema, come ammette la stessa OpenAI, è che questi processi non sono «ancora risolti». La qualità dei dati è tutto. Un modello addestrato su etichette sbagliate o inconsistenti erediterà quei bias e quelle imprecisioni, con conseguenze potenzialmente disastrose. Per questo l’azienda ha sviluppato metriche rigorose per valutare l’aderenza ai fatti, la coerenza e la riduzione delle risposte non fondate, come dimostrato nel benchmark GDPval che misura le prestazioni su compiti professionali reali.
L’obiettivo è passare da un’etichettatura umana, lenta e costosa, a un ciclo virtuoso gestito dall’IA: l’IA analizza i dati, identifica le lacune, genera nuovi dati o migliora quelli esistenti, e valuta la propria performance.
Un ciclo che, in teoria, potrebbe accelerare esponenzialmente lo sviluppo e al tempo stesso alzare gli standard qualitativi.
Tuttavia, questa transizione non è solo una questione tecnica. È profondamente etica ed economica. Da un lato, liberare migliaia di persone da un lavoro mentalmente distruttivo è un progresso innegabile. Dall’altro, solleva interrogativi spinosi: che fine faranno quelle comunità, come quella in Kenya, per cui quel lavoro, pur terribile, rappresentava un’opportunità economica? E chi è responsabile quando l’automazione commette un errore?
Se un sistema di IA per la moderazione dei contenuti, addestrato da un’altra IA, lascia passare un video di violenza estrema, la colpa è dell’algoritmo, della società che lo ha creato o della mancanza di supervisione umana?
Il confine (molto sottile) tra soluzione e rischio
L’entusiasmo di Altman per l’uso di GPT-5.3-Codex come strumento per risolvere i problemi dell’IA stessa si scontra con una realtà più complessa. Innanzitutto, c’è il paradosso della sicurezza. Lo stesso modello che dovrebbe aiutare a costruire sistemi più sicuri e allineati è anche il primo classificato come ad alta capacità in cybersecurity, il che significa che potrebbe essere utilizzato per scopi opposti, come trovare e sfruttare vulnerabilità zero-day.
È il classico problema del «dual-use», raddoppiato.
In secondo luogo, c’è il rischio di creare un circolo chiuso. Se l’IA viene addestrata principalmente su dati generati o filtrati da altre IA, si potrebbe perdere il contatto con la complessità e la varietà del mondo reale, impoverendo la sua comprensione e amplificando bias già presenti nel sistema.
OpenAI è consapevole di questi pericoli. Nel suo approccio alla sicurezza dell’IA, l’azienda parla di apprendere dall’uso nel mondo reale e di implementare tecniche come i «safe completions» in GPT-5, che spingono il modello a essere conservativo sui contenuti potenzialmente pericolosi.
Ma la posta in gioco con l’automazione del processo di sviluppo è più alta. Si tratta di affidare alla macchina non solo l’esecuzione di compiti, ma la cura del proprio stesso nutrimento intellettuale.
Per questo, il passaggio non sarà improvviso. Probabilmente assisteremo a una fase ibrida, in cui agenti IA come GPT-5.3-Codex affiancheranno e supervisioneranno team umani di esperti, come gli «architetti delle soluzioni» che OpenAI sta assumendo per guidare i clienti enterprise nell’adozione responsabile dell’IA.
La dichiarazione di Altman, quindi, non è l’annuncio di una soluzione immediata, ma l’accensione di un faro su una direzione di marcia inevitabile. L’industria dell’IA non può continuare a crescere dipendendo da un modello di business che esternalizza il trauma.
Ma nel correre verso l’automazione totale, rischia di creare nuovi mostri: sistemi opachi che si auto-alimentano, distaccati dal controllo e dalla comprensione umana.
La domanda finale non è se l’IA risolverà i problemi sporchi della sua stessa creazione, ma come lo farà, e a quale prezzo per la trasparenza, la sicurezza e la responsabilità.
Forse, il vero test per GPT-5.3-Codex non sarà quanti bug riesce a correggere in un codice, ma se riuscirà a scrivere un algoritmo etico per la propria esistenza.
Un compito per cui, al momento, non esiste ancora un dataset abbastanza buono.