La ‘lovefest’ per GPT-5.3: OpenAI celebra l’IA che si scrive da sola e l’alto rischio, mentre Anthropic promette l’etica senza pubblicità
Dietro la celebrazione del nuovo GPT-5.3 si cela però una realtà di sistemi che si scrivono da soli, classificati come ad alto rischio dai loro stessi creatori.
C’è un’aria stranamente festosa nella Silicon Valley, un entusiasmo quasi adolescenziale che non si respirava da un paio d’anni. Sam Altman, CEO di OpenAI, l’ha definita senza mezzi termini una “lovefest”, una festa dell’amore per il nuovo arrivato in famiglia, il modello GPT-5.3.
La festa dell’amore per la 5.3 è così bella da vedere. Non credo che abbiamo avuto così tanto entusiasmo per un modello dai tempi dell’originale GPT-4.
— Sam Altman, CEO di OpenAI
Tuttavia, dietro i sorrisi da copertina e i thread celebrativi sui social, si nasconde una realtà tecnica ed etica che dovrebbe farci aggrottare la fronte, non applaudire.
Siamo al 6 febbraio 2026 e la narrazione dominante ci invita a guardare il dito — la velocità, l’efficienza, la presunta magia — per non farci guardare la luna: stiamo consegnando le chiavi di casa a sistemi che, per la prima volta, ammettono di essere potenzialmente pericolosi e strutturalmente opachi.
Non è il solito ciclo di hype.
Questa volta c’è una differenza sostanziale nel come questi strumenti sono stati costruiti e nel cosa viene chiesto loro di fare. Se fino a ieri ci preoccupavamo di chatbot che “allucinavano” date storiche, oggi il problema si sposta su agenti che agiscono autonomamente sui nostri computer, scrivono il proprio codice e vengono classificati “ad alto rischio” dagli stessi produttori che ce li vendono.
L’uroboro digitale: l’ia che si scrive da sola
Il dettaglio più inquietante del lancio di GPT-5.3-Codex non è nella sua capacità di scrivere una poesia in rima baciata o di risolvere equazioni differenziali. È nascosto in una nota tecnica che sembra uscita da un romanzo distopico di bassa lega, ma che purtroppo è realtà ingegneristica.
OpenAI ha confermato che questo modello è stato fondamentale per creare se stesso.
GPT-5.3-Codex è il nostro primo modello che è stato determinante nella creazione di se stesso. Il team Codex ha utilizzato le prime versioni per eseguire il debug del proprio addestramento, gestire la propria distribuzione e diagnosticare i risultati dei test.
— Team di Ingegneria, OpenAI
Siamo di fronte a un uroboro digitale, il serpente che si morde la coda. L’automazione dello sviluppo software da parte dell’IA stessa introduce un livello di black box — la scatola nera — che il GDPR europeo ha tentato, con fatica, di scardinare.
Se un algoritmo scrive il codice di un altro algoritmo, chi è responsabile quando quel codice viola la privacy di un utente o discrimina un gruppo demografico? L’ingegnere umano che non ha scritto la riga di codice incriminata, o la macchina che non ha personalità giuridica?
Dal punto di vista della privacy, questo è un incubo. Il team di ingegneria ha utilizzato versioni preliminari del modello per accelerare drasticamente il proprio sviluppo, creando un ciclo di feedback in cui la supervisione umana diventa, per pura necessità di velocità, sempre più marginale.
Meno occhi umani sul codice significano meno controlli su come i dati vengono processati, archiviati o potenzialmente esfiltrati. E mentre ci viene venduta l’efficienza, stiamo silenziosamente accettando l’idea che la complessità del software che governa le nostre vite superi la capacità umana di auditarlo.
“alto rischio”: marketing o avvertimento reale?
Mentre l’hype monta, OpenAI ha dovuto fare un’ammissione che in un mercato sano avrebbe dovuto affossare il titolo in borsa, ma che nel 2026 viene recepita come una medaglia al valore. Per la prima volta, l’azienda ha classificato il proprio modello come “High” (Alto) nel suo framework di preparazione alla sicurezza interna.
Non si tratta di prudenza eccessiva.
Sam Altman e i suoi dirigenti sanno bene che il nuovo modello rappresenta un rischio elevato per la sicurezza informatica a causa delle sue capacità avanzate di ragionamento e codifica. La capacità di ragionamento autonomo applicata alla cybersecurity non significa solo difese migliori; significa, potenzialmente, attacchi automatizzati su scala mai vista prima.
Ma qui scatta il cinismo del modello di business. Etichettare il proprio prodotto come “pericoloso” è la strategia di marketing perfetta per il vendor lock-in.
Dicendo “è troppo potente per essere libero”, le Big Tech giustificano la creazione di recinti chiusi. L’accesso alle funzionalità più avanzate — e quindi più utili economicamente — sarà riservato a partner “fidati” (leggi: grandi aziende disposte a pagare cifre esorbitanti e a firmare accordi di non divulgazione), mentre al pubblico e ai regolatori verranno date versioni edulcorate o, peggio, rassicurazioni di facciata.
La sicurezza diventa così un bene di lusso, mentre il rischio viene socializzato. Se GPT-5.3 venisse usato per trovare vulnerabilità zero-day nei sistemi bancari o sanitari, chi pagherebbe il conto?
Non certo l’IA.
La guerra dei “buoni”: Anthropic e la promessa senza pubblicità
Dall’altra parte della barricata, o almeno così vogliono farci credere, c’è Anthropic. Con il rilascio di Claude Opus 4.6, l’azienda cerca di posizionarsi come l’adulta nella stanza, quella “etica”. La loro mossa di marketing? Promettere solennemente che non useranno i nostri dati per la pubblicità.
Abbiamo fatto una scelta: Claude rimarrà senza pubblicità. Spieghiamo perché gli incentivi pubblicitari sono incompatibili con un assistente IA genuinamente utile e come intendiamo espandere l’accesso senza compromettere la fiducia degli utenti.
— Leadership Team, Anthropic
Sembra nobile, quasi eroico.
Ma attenzione a non cadere nella trappola del “buon gigante”. Anthropic ha ribadito il suo impegno a mantenere Claude libero da inserzioni pubblicitarie per preservare la fiducia degli utenti, eppure questo non risolve il problema strutturale della sorveglianza.
Il modello di business “senza pubblicità” non significa “senza estrazione di dati”. Significa semplicemente che il cliente non è l’inserzionista, ma l’azienda che integra l’IA nei propri processi. I nostri dati, le nostre conversazioni, i nostri documenti caricati su Opus 4.6 servono ancora ad addestrare e raffinare modelli che vengono poi venduti a caro prezzo al settore enterprise e militare.
La privacy non è salvaguardata eliminando i banner pubblicitari; è minacciata dalla natura stessa di questi “agenti” che richiedono, per funzionare, una conoscenza sempre più intima delle nostre intenzioni e abitudini lavorative.
Inoltre, questa corsa agli armamenti tra OpenAI e Anthropic — con modelli sempre più performanti rilasciati a settimane di distanza — crea una pressione insostenibile sui legislatori. Il Regolamento Europeo sull’IA (AI Act), pensato per tecnologie di due anni fa, rischia di essere già obsoleto di fronte a sistemi che si auto-migliorano e agiscono come agenti autonomi.
Siamo di fronte a un paradosso: celebriamo la “lovefest” tecnologica mentre smantelliamo, pezzo dopo pezzo, la nostra sovranità digitale. L’ironia finale? L’entusiasmo di cui parla Altman non è per un futuro migliore per l’umanità, ma per un prodotto che rende l’umanità sempre meno necessaria nel processo decisionale.
Chi ci guadagna davvero?
Chi controlla i server, non certo chi scrive i prompt. E se l’IA inizia a scriversi da sola, forse dovremmo smettere di festeggiare e iniziare a chiedere chi ha in mano il pulsante di spegnimento.
Esiste ancora un pulsante di spegnimento?