L’accordo Zeta Global-OpenAI: verso l’industrializzazione della persuasione algoritmica?
L’accordo tra Zeta Global e OpenAI solleva interrogativi inquietanti sull’uso dell’intelligenza artificiale nel marketing e sulla protezione dei dati personali
Las Vegas si è svuotata da un paio di settimane, le luci del CES 2026 si sono spente, ma l’eco delle promesse fatte nei padiglioni continua a rimbalzare nelle sale riunioni di tutto il mondo. Tra le tante strette di mano che contano, una in particolare avrebbe dovuto far drizzare le antenne a chiunque si preoccupi di come i propri dati personali vengano macinati dai giganti del marketing: l’accordo tra Zeta Global e OpenAI.
A prima vista, potrebbe sembrare la solita notizia aziendale infarcita di parole chiave come “sinergia” e “innovazione”. Tuttavia, se si gratta via la patina dorata del comunicato stampa, emerge uno scenario ben più complesso e, per certi versi, inquietante.
Non stiamo parlando semplicemente di un chatbot che aiuta i creativi a scrivere email più accattivanti.
Qui siamo di fronte all’industrializzazione della persuasione algoritmica, dove l’intelligenza artificiale non si limita più a suggerire, ma inizia ad agire.
L’integrazione dei modelli più avanzati di OpenAI nella piattaforma “Athena” di Zeta Global segna un passaggio critico: il momento in cui l’IA nel marketing smette di essere un consulente passivo e diventa un “agente” autonomo.
E quando un algoritmo inizia a prendere decisioni su come, quando e perché targettizzare un consumatore, le domande sulla privacy smettono di essere teoriche e diventano maledettamente pratiche.
L’automazione della persuasione (senza freni umani)
Il cuore della questione risiede nel concetto di “Agentic AI”, o intelligenza artificiale agentica. Fino a ieri, un direttore marketing guardava una dashboard, vedeva che le vendite calavano in Lombardia e decideva di lanciare una promozione.
Domani (o meglio, oggi, visto che la beta è già attiva), sarà Athena a notare il calo, decidere la strategia, creare i segmenti di pubblico e lanciare la campagna.
Il tutto, potenzialmente, mentre l’umano è in pausa pranzo.
Giancarlo ‘GC’ Lionetti, Chief Commercial Officer di OpenAI, non ha usato mezzi termini per descrivere questa evoluzione, sottolineando come la collaborazione stia portando l’intelligenza agentica direttamente nei flussi di lavoro quotidiani del marketing. L’obiettivo dichiarato è la velocità: permettere alle aziende di agire con “fiducia”.
Ma la fiducia di chi?
“Zeta dimostra come l’IA avanzata possa passare dal livello di ‘intuizione’ a quello di ‘azione’. Lavorando insieme, stiamo portando l’intelligenza agentica direttamente nei flussi di lavoro di marketing quotidiani, aiutando le imprese a muoversi più velocemente e ad agire con sicurezza.”
— Giancarlo ‘GC’ Lionetti, Chief Commercial Officer presso OpenAI
Il problema è che l’efficienza algoritmica spesso fa a pugni con la tutela dei diritti individuali. Zeta Global non è una startup nata ieri in un garage; è un colosso che gestisce trilioni di segnali sui consumatori. Hanno costruito il loro impero sulla “identity resolution”, ovvero la capacità di capire chi siete attraverso vari dispositivi e piattaforme.
Unire questa mole spaventosa di dati comportamentali con la capacità di ragionamento e di azione autonoma dei modelli OpenAI crea una scatola nera della persuasione.
Se l’agente IA decide che il modo migliore per vendere un prodotto finanziario è targettizzare persone che mostrano segnali di stress economico nelle ore notturne, chi lo ferma?
Il GDPR (Regolamento Generale sulla Protezione dei Dati) impone trasparenza e limitazione delle finalità, ma come si applicano questi principi quando la decisione è presa in millisecondi da una rete neurale che ottimizza per il “risultato” e non per l’etica?
Un fossato pieno di dati (e chi ci guadagna)
Dietro ogni grande annuncio tecnologico c’è sempre una strategia di mercato difensiva. In gergo si chiama “moat”, il fossato. Zeta Global sta cercando di scavare un fossato profondissimo attorno al proprio business, rendendosi indispensabile. L’acquisizione degli asset software di Marigold alla fine del 2025 non è stata casuale: serviva a ingrassare il database di clienti e dati prima di innestarvi il motore di OpenAI.
David A. Steinberg, CEO di Zeta, ha descritto questa mossa come un cambiamento tettonico, trasformando la loro piattaforma in un vero e proprio sistema operativo. È interessante notare come Zeta sia stata fondata a New York con l’obiettivo specifico di servire i direttori marketing delle grandi imprese, consolidando fin dal 2007 una posizione che oggi le permette di sfruttare l’IA su una scala che pochi concorrenti possono vantare.
“Abbiamo stretto molte partnership nella storia di Zeta, ma nessuna sarà più strumentale di quella che stiamo intraprendendo con OpenAI. L’intelligenza artificiale si sta spostando dai margini del marketing al centro delle operazioni aziendali, e Athena incarna questo cambiamento… Trasforma la Zeta Marketing Platform in un sistema operativo intelligente per la crescita – uno che può ascoltare, ragionare e agire per conto dei marketer.”
— David A. Steinberg, Co-Fondatore, Presidente e CEO di Zeta Global
“Ascoltare, ragionare e agire per conto dei marketer”.
In questa frase c’è tutto il paradosso del business delle Big Tech odierne. OpenAI, che ama presentarsi come l’alfiere dell’IA sicura e benefica per l’umanità, sta di fatto fornendo le munizioni per un’arma di marketing di massa.
Il modello di business qui è chiaro: Zeta blocca i clienti nella sua infrastruttura (perché chi vorrebbe tornare a fare marketing “a mano”?), e OpenAI si assicura che il suo modello diventi lo standard de facto per l’enterprise, rendendo le aziende dipendenti dalle sue API come lo sono dall’elettricità.
E i rischi? Vengono esternalizzati.
Se l’IA “allucina” una strategia o viola una normativa sulla privacy in modo sottile, sarà un bel problema districare la matassa delle responsabilità legali tra il fornitore del modello (OpenAI), la piattaforma (Zeta) e l’azienda cliente che ha premuto “start”.
Il miraggio del controllo
C’è un’ironia di fondo in tutto questo entusiasmo per gli “agenti autonomi”. Viene venduta ai dirigenti come lo strumento definitivo di controllo sul mercato (“domina i momenti che contano”, dicono), ma in realtà rappresenta una cessione di controllo senza precedenti.
Affidarsi a un sistema che “ragiona” sui dati dei clienti significa accettare che non si capirà mai veramente perché una certa persona è stata targettizzata in quel preciso istante.
Inoltre, bisogna chiedersi: questi dati da dove arrivano?
Per alimentare una “intelligenza” capace di agire, serve carburante. E il carburante sono le nostre abitudini, i nostri clic, le nostre geolocalizzazioni. L’integrazione tecnica è profonda: Giacomo Lionetti di OpenAI ha sottolineato come la partnership integri agenti intelligenti direttamente nei flussi di lavoro, rendendo l’IA non un accessorio, ma il motore stesso del processo decisionale.
Siamo di fronte a una convergenza pericolosa.
Da un lato, la fame insaziabile di dati delle piattaforme di AdTech; dall’altro, la capacità dei nuovi modelli LLM (Large Language Models) di inferire tratti psicologici e prevedere comportamenti con una precisione che rasenta la telepatia.
Quando si uniscono queste due forze, il concetto di “consenso informato” diventa una barzelletta.
Un utente può davvero acconsentire a essere manipolato da un’intelligenza artificiale che lo conosce meglio di quanto lui conosca se stesso?
La realtà è che mentre i regolatori europei faticano a tenere il passo con le versioni base di ChatGPT, il mercato B2B (business-to-business) sta già correndo due giri avanti, implementando sistemi autonomi che operano nell’ombra delle infrastrutture aziendali. Non vedremo questi cambiamenti nel design del nostro smartphone, ma li sentiremo nel modo in cui il mondo digitale si piegherà attorno a noi per estrarre valore.
L’accordo Zeta-OpenAI è un segnale di fumo molto chiaro: l’era dell’IA come “copilota” sta finendo prima ancora di essere iniziata davvero.
Siamo già nell’era dell’IA come pilota automatico.
E se il pilota decide di prendere una scorciatoia attraverso la nostra privacy per raggiungere gli obiettivi di fatturato trimestrali, chi è a bordo ha ben pochi modi per tirare il freno a mano. Resta da chiedersi se, in questo futuro automatizzato, i consumatori saranno ancora considerati persone o solo variabili in un’equazione da ottimizzare a ogni costo.