GPT-5.3 e Claude Opus 4.6: la festa dell'amore dell'AI autonoma e i rischi per la privacy

GPT-5.3 e Claude Opus 4.6: la festa dell’amore dell’AI autonoma e i rischi per la privacy

Questi nuovi modelli non sono semplici aggiornamenti, ma agenti autonomi che si integrano profondamente nei sistemi operativi, sollevando seri interrogativi sul controllo umano e la protezione dei dati.

C’è un termine che sta circolando con insistenza sui forum di settore e nelle chat crittografate della Silicon Valley per descrivere le ultime ventiquattro ore: “lovefest”. Una festa dell’amore, un’orgia di entusiasmo digitale che non si vedeva dal marzo 2023, quando il lancio dell’originale GPT-4 aveva convinto mezzo mondo che l’intelligenza generale artificiale fosse dietro l’angolo.

Oggi, 6 febbraio 2026, ci risiamo.

I feed di X (ex Twitter) e le newsletter di venture capital traboccano di esclamazioni giubilanti per il rilascio simultaneo di GPT-5.3 da parte di OpenAI e di Claude Opus 4.6 da parte di Anthropic. Ma se grattiamo via la patina scintillante del marketing e l’euforia dei programmatori che vedono il loro lavoro automatizzato, quello che emerge è un quadro molto meno rassicurante e decisamente più opaco.

Siamo di fronte a un salto paradigmatico che le Big Tech stanno vendendo come un semplice aggiornamento software. Non stiamo più parlando di chatbot con cui conversare del senso della vita o a cui chiedere di riassumere una mail. Stiamo parlando di agenti autonomi integrati profondamente nei sistemi operativi, capaci di “fare cose” al posto nostro.

E la domanda che nessuno sembra voler fare, mentre si stappano bottiglie di champagne virtuali a San Francisco, è: chi controlla questi agenti quando decidono di agire?

L’illusione del controllo e la scatola nera che si auto-genera

Il vero elefante nella stanza non è la capacità di GPT-5.3 di scrivere poesie in rima baciata, ma la sua nuova natura ricorsiva. OpenAI ha rilasciato una variante specifica, GPT-5.3-Codex, con una dichiarazione che dovrebbe far venire i brividi a qualsiasi garante della privacy o esperto di sicurezza informatica, ma che invece viene accolta come un miracolo dell’ingegneria. L’azienda ammette candidamente che questo modello è stato fondamentale per creare se stesso.

Non è un’iperbole: il software ha debuggato il suo stesso codice di addestramento.

GPT-5.3-Codex è il nostro primo modello che è stato strumentale nella creazione di se stesso. Il team Codex ha utilizzato le prime versioni per eseguire il debug del proprio addestramento, gestire la propria distribuzione e diagnosticare i risultati dei test e le valutazioni: il nostro team è rimasto sbalordito da quanto Codex sia stato in grado di accelerare il proprio sviluppo.

— Team di Ingegneria, OpenAI

Leggendo tra le righe di questo entusiasmo corporativo, OpenAI introduce GPT-5.3 Codex descrivendolo come un agente capace di operare autonomamente ben oltre la semplice scrittura di codice. Questo significa che abbiamo varcato una soglia critica: l’essere umano sta uscendo dal ciclo di feedback.

Se un sistema AI gestisce il proprio dispiegamento e diagnostica i propri errori, dove finisce la supervisione umana richiesta dal GDPR? Se l’algoritmo decide che un certo set di dati personali è “necessario” per ottimizzare le sue prestazioni, chiederà il permesso o lo acquisirà in silenzio per “accelerare lo sviluppo”?

L’efficienza è la maschera perfetta per l’assenza di accountability. Un agente che “può fare quasi tutto ciò che gli sviluppatori possono fare su un computer” è, per definizione, un rischio per la privacy di proporzioni colossali. Significa accesso ai file system, alle credenziali, alle reti aziendali. E se il codice che governa queste azioni è stato scritto dall’AI stessa, la capacità di audit da parte di enti regolatori esterni diventa una chimera. Stiamo costruendo scatole nere sigillate dall’interno.

La strategia del “buon poliziotto” e i costi nascosti

Mentre OpenAI spinge sull’acceleratore dell’autonomia totale, Anthropic gioca la carta della responsabilità etica, posizionandosi come l’alternativa “sicura” e rispettosa. Con il lancio di Claude Opus 4.6, l’azienda fondata dai fratelli Amodei cerca di differenziarsi non tanto sulla potenza bruta, quanto sulla fiducia. In un mercato saturo di modelli che allucinano o che succhiano dati come idrovore, Anthropic promette un’oasi felice.

Abbiamo fatto una scelta: Claude rimarrà senza pubblicità. Spieghiamo perché gli incentivi pubblicitari sono incompatibili con un assistente AI genuinamente utile e come pianifichiamo di espandere l’accesso senza compromettere la fiducia degli utenti.

— Leadership Team, Anthropic

È una narrazione affascinante, ma bisogna essere ingenui per non vedere il modello di business sottostante. Anthropic lancia Claude Opus 4.6 posizionandolo come leader di settore non per beneficenza, ma per catturare il segmento corporate terrorizzato dalle fughe di dati.

Tuttavia, dire “niente pubblicità” non significa “niente profilazione”.

Per addestrare un modello come Opus 4.6, che compete testa a testa con GPT-5.3, la fame di dati è insaziabile. Se il prodotto non è la pubblicità, il prodotto è l’abbonamento costoso o, più sottilmente, l’integrazione profonda nei flussi di lavoro aziendali. Una volta che un’azienda affida a Claude la gestione dei suoi documenti riservati, il “lock-in” è totale. La privacy diventa un servizio premium, un lusso per chi può permettersi di pagare il canone mensile, mentre la massa si accontenta di versioni inferiori o compromesse.

Inoltre, l’assenza di pubblicità oggi non è una garanzia legale per il futuro; è una policy aziendale, e le policy cambiano non appena gli investitori chiedono un ritorno più rapido sul capitale investito.

La rincorsa disperata e i rischi della fretta

In questo duello tra titani, non tutti riescono a tenere il passo, e qui si annida un altro pericolo: la disperazione competitiva. Quando il mercato premia solo chi arriva primo o chi fa più rumore, la sicurezza diventa un ostacolo burocratico da aggirare. Le difficoltà del settore sono evidenti, tanto che Meta sta ritardando il rilascio del suo modello di punta originariamente previsto per aprile, segnale che anche i giganti con risorse illimitate stanno sbattendo contro muri tecnici o, forse, contro problemi di sicurezza che non riescono a risolvere in tempo per la press release.

Nel frattempo, Elon Musk con la sua xAI cerca di recuperare terreno promettendo con Grok 3.5 capacità di ragionamento “dai primi principi”, mentre Alibaba Cloud spinge dalla Cina con Qwen 2.5-Max. È un Far West dove ogni attore cerca di urlare più forte. Il rischio è che, nella fretta di non sembrare obsoleti rispetto a un GPT-5.3 che si auto-migliora, i concorrenti rilascino modelli meno testati, con guardrail di sicurezza più labili.

La convergenza verso agenti che operano sui nostri computer segna la fine dell’era in cui l’AI era un sito web da visitare. Ora l’AI è il sistema operativo.

Le implicazioni per la privacy sono devastanti: ogni click, ogni documento aperto, ogni riga di codice scritta viene processata, analizzata e potenzialmente utilizzata per il prossimo ciclo di auto-apprendimento.

Ci troviamo di fronte a un paradosso tecnologico: gli strumenti diventano sempre più potenti e “utili”, ma il nostro controllo su di essi diminuisce proporzionalmente. Se un modello AI scrive il proprio codice e gestisce la propria infrastruttura, chi stiamo davvero interrogando quando chiediamo spiegazioni su una decisione algoritmica discriminatoria o su una violazione dei dati?

La risposta “è stato l’algoritmo” non è mai stata così tecnicamente vera e, al contempo, così legalmente inaccettabile.

La festa dell’amore per la versione 5.3 è appena iniziata, ma qualcuno dovrebbe iniziare a preoccuparsi di chi pagherà il conto quando la musica finirà e ci accorgeremo che la casa non è più nostra.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie