OpenAI e gli agenti AI: è davvero tutto ‘divertente’ come sembra?
Dietro l’etichetta di “divertimento” si cela un sistema di agenti AI capaci di agire autonomamente, sollevando interrogativi sulla privacy, la sicurezza e il controllo dei dati personali.
C’è una parola che ricorre spesso nei corridoi della Silicon Valley quando si vuole distrarre il pubblico da un potenziale disastro etico: “divertente”.
È un aggettivo innocuo, leggero, quasi infantile. E proprio per questo, quando una delle aziende più potenti al mondo lo usa per descrivere una tecnologia capace di ridisegnare i confini della nostra autonomia, bisognerebbe iniziare a preoccuparsi.
Oggi, 5 gennaio 2026, il feed ufficiale di OpenAI ha annunciato il lancio di “qualcosa di veramente divertente”, accompagnando il tutto con l’entusiasmo tipico di chi sta per vendervi un biglietto di sola andata per una prigione dorata.
Ma dietro questo termine rassicurante si nasconde l’evoluzione finale di un piano che era evidente fin dalle prime indiscrezioni del novembre 2024: il passaggio dai chatbot che “parlano” agli agenti che “agiscono”.
Non siamo più di fronte a un software che ci aiuta a scrivere una mail; siamo di fronte a un sostituto che la invia, la archivia e decide quali altre mail meritano la nostra attenzione, il tutto mentre i regolatori europei cercano ancora di capire come applicare il GDPR a modelli vecchi di due anni.
L’ironia è palpabile.
Mentre ci viene venduto il “divertimento”, la realtà è che stiamo consegnando le chiavi digitali delle nostre vite a un’entità che ha dimostrato, più volte, di considerare la sicurezza un ostacolo alla velocità di esecuzione.
Il maggiordomo spia
L’oggetto di questo lancio non è un mistero per chi segue le tracce di briciole lasciate dai report finanziari e dai leak tecnici. Si tratta della piena operatività di Operator, o della sua evoluzione diretta.
Se fino a ieri ChatGPT era un oracolo passivo, oggi diventa un esecutore attivo.
Il problema fondamentale di questa transizione è l’accesso. Per funzionare, un agente AI deve avere il permesso di navigare nel vostro browser, accedere ai vostri account bancari, leggere le vostre prenotazioni e interagire con terze parti a vostro nome.
Secondo le specifiche tecniche emerse già lo scorso anno, i nuovi agenti sono progettati per eseguire autonomamente compiti complessi come la scrittura di codice o la prenotazione di voli, operando direttamente sulle interfacce web pensate per gli umani.
Qui sorge la domanda che nessuno sembra voler fare ad alta voce: chi è responsabile quando l’agente sbaglia?
O peggio, chi controlla l’enorme mole di dati comportamentali che questi agenti devono ingerire per “conoscerci” abbastanza bene da sostituirci? In Europa, il principio di minimizzazione dei dati sancito dal GDPR dovrebbe impedire una raccolta così invasiva, ma il modello di business di queste tecnologie si basa sull’esatto opposto: la massimizzazione dell’estrazione dati.
Ogni click effettuato dall’agente è un punto dati vendibile o utilizzabile per addestrare il modello successivo, creando un ciclo infinito in cui l’utente non è il cliente, ma la materia prima.
Ma c’è un aspetto ancora più inquietante della semplice privacy: è la questione della governance e di chi tiene le redini di questa corsa sfrenata.
Il teatro della sicurezza
Per capire perché dovremmo essere scettici, bisogna guardare al passato recente. La struttura che governa OpenAI oggi è radicalmente diversa da quella che nel 2023 tentò, goffamente, di fermare Sam Altman. Quell’episodio, che sembra ormai preistoria tecnologica, fu il momento in cui la maschera “non-profit” cadde definitivamente.
Il consiglio di amministrazione originale aveva sollevato dubbi sulla “mancanza di sincerità” di Altman, un eufemismo corporativo per dire che il CEO stava nascondendo informazioni critiche sui rischi della tecnologia.
La risposta del mercato e degli investitori (Microsoft in testa) fu brutale: la sicurezza non paga, il prodotto sì.
Il risultato fu il reintegro di Altman e la purga delle voci dissonanti. Successivamente, un’indagine dello studio WilmerHale non ha riscontrato illeciti formali, spianando la strada a un nuovo consiglio composto da figure molto più allineate agli interessi commerciali della Silicon Valley che alla filosofia dell’altruismo efficace.
Oggi, quella vittoria politica si traduce in prodotti lanciati con il sorriso, mentre i team dedicati alla superalignment (la sicurezza delle super-intelligenze) sono stati smantellati o ridotti al silenzio. Le promesse di Altman sulla sicurezza suonano ora come un rituale necessario per placare l’opinione pubblica, non come una reale priorità strategica.
Sto tornando in OpenAI come CEO… Non sono mai stato così entusiasta per il futuro. Lavorerò con Mira su questo… Facendo avanzare il nostro piano di ricerca e investendo ulteriormente nei nostri sforzi di sicurezza full-stack.
— Sam Altman, CEO di OpenAI (Dichiarazione del 2023)
Le parole “sforzi di sicurezza full-stack” appaiono oggi grottesche se confrontate con la velocità con cui vengono rilasciati strumenti capaci di operare in autonomia nel mondo reale, senza un quadro normativo chiaro che definisca i limiti della loro azione.
Chi paga il conto?
La narrazione ufficiale è che questi strumenti ci “libereranno” dalla noia delle attività quotidiane. La verità, molto più prosaica, è che le Big Tech hanno bisogno di un nuovo ecosistema per giustificare le valutazioni astronomiche in borsa e i miliardi spesi in GPU.
I chatbot testuali hanno raggiunto un plateau; l’unico modo per continuare a crescere è infiltrarsi nelle transazioni economiche.
Se l’AI prenota il vostro volo, OpenAI (e i suoi partner) si posizionano come intermediari ineludibili tra voi e il resto dell’economia digitale.
E non illudiamoci che le soluzioni tecniche come il watermarking (la filigrana digitale) possano proteggerci dalla disinformazione o dalle truffe generate da agenti autonomi. Altman stesso ne ha parlato in passato come di una necessità, ma l’implementazione è sempre stata, guarda caso, secondaria rispetto al lancio di nuove funzionalità.
Voglio segnalare un’altra cosa che penso sia poco esplorata, ovvero l’idea non solo di apporre filigrane ai contenuti generati, ma di autenticare i contenuti non generati.
— Sam Altman, CEO di OpenAI
Questa affermazione sposta furbescamente l’onere della prova: in un futuro saturato da agenti AI, saranno gli esseri umani a doversi “autenticare” per dimostrare di essere reali, invertendo l’onere della prova e creando una società a due velocità dove la privacy è un lusso per chi può permettersi di non usare l’AI.
Siamo di fronte a un bivio.
Da una parte c’è la comodità “divertente” di un assistente che fa tutto per noi; dall’altra, c’è la cessione definitiva della nostra agenzia decisionale e dei nostri dati più intimi a un’azienda che ha dimostrato di rispondere solo alla logica del profitto e del dominio di mercato.
Il “divertimento” annunciato oggi potrebbe essere il preludio a un domani in cui saremo spettatori passivi delle nostre stesse vite digitali, gestite da algoritmi ottimizzati per servirci, certo, ma soprattutto per venderci.
Resta da chiedersi: quando l’agente prenderà una decisione che non condividiamo, avremo ancora il potere, o il permesso, di staccare la spina?