Curation: come Google sta cambiando le regole dell’advertising Programmatico
La “curation” dei dati pubblicitari promette di ripulire il web, ma l’ingresso di Google nel mercato solleva interrogativi sulla trasparenza e il controllo centralizzato
Per anni, l’infrastruttura invisibile che finanzia il web — l’advertising programmatico — ha operato secondo un principio architettonico tanto semplice quanto inefficiente: il volume.
Se eri un editore, l’obiettivo era inondare il mercato di impression; se eri un inserzionista, l’obiettivo era setacciare quel mare magnum sperando di pescare l’utente giusto al prezzo più basso.
Era un approccio brute-force, tecnicamente rozzo, che ha generato un ecosistema digitale inquinato da latenza, sprechi di calcolo e frodi.
Ma mentre ci avviciniamo alla fine del 2025, stiamo assistendo a un refactoring completo del sistema.
Il paradigma si è spostato dall’aggregazione alla “curation” (curatela).
Non si tratta di una semplice buzzword di marketing, ma di una ridefinizione tecnica di come i pacchetti di dati viaggiano dal server dell’editore (SSP) alla piattaforma di acquisto (DSP).
E proprio quando il mercato open web pensava di aver trovato in questa tecnologia un modo per rendersi indipendente dai “giardini recintati”, Google ha deciso di entrare nella partita, modificando ancora una volta le regole del gioco.
La mossa di Mountain View non è casuale, ma la risposta a un problema strutturale che l’industria ha ignorato per troppo tempo: la spazzatura digitale.
Non più tubi, ma filtri intelligenti
Per capire perché la curation è tecnicamente superiore all’aggregazione, bisogna guardare a cosa succede dietro le quinte di una chiamata server-to-server.
Fino a poco tempo fa, il modello dominante era l’Open Market: un editore inviava una richiesta d’asta a chiunque fosse disposto ad ascoltare.
Questo ha portato all’esplosione del traffico inutile. L’ascesa delle aste standardizzate dell’header bidding ha saturato le infrastrutture, costringendo le DSP a processare miliardi di richieste al secondo, la maggior parte delle quali veniva scartata.
Era uno spreco di risorse computazionali imbarazzante per chiunque apprezzi l’efficienza del codice.
La curation inverte questo processo.
Invece di inviare tutto a tutti, le piattaforme lato offerta (SSP) o le agenzie applicano logiche di filtraggio prima che la richiesta lasci il server.
Vengono creati dei “deal ID” (identificativi d’asta specifici) che raggruppano inventario premium arricchito da dati di prima parte.
Tecnicamente, è un passaggio da un protocollo broadcast a uno multicast mirato.
Questo riduce il rumore, abbassa la latenza e, soprattutto, taglia fuori gli intermediari parassiti che non aggiungono valore alla catena.
Tuttavia, questa pulizia tecnica è stata accelerata da uno scandalo che ha scosso le fondamenta del settore.
Rapporti recenti hanno svelato miliardi di dollari sprecati su siti Made-For-Advertising di bassa qualità, pagine create non per essere lette da umani ma per ingannare i bot pubblicitari.
Di fronte all’evidenza che i vecchi algoritmi di aggregazione stavano comprando “fumo”, la richiesta di un controllo umano e tecnico più stretto — la curation, appunto — è diventata l’unica via per garantire la qualità del codice sorgente della pubblicità.
L’eleganza tecnica (e il rischio) della centralizzazione
Qui entra in gioco Google.
Fino a ieri, la curation era vista come l’arma dell’Open Web: un modo per editori indipendenti e SSP come Microsoft (ex Xandr) o Index Exchange di offrire agli inserzionisti la stessa precisione di targeting di Facebook o Google, ma su siti di notizie e portali verticali.
La logica era: “Usiamo i nostri dati per curare pacchetti migliori di quelli che Google può trovare nell’Open Market”.
Ma Google, osservando il trend, ha integrato strumenti di curation direttamente in Google Ad Manager (GAM).
Dal punto di vista ingegneristico, è una mossa brillante.
GAM è già il server dove risiede fisicamente l’inventario della maggior parte degli editori. Eseguire la curation lì, alla fonte, elimina ulteriori hop di rete e discrepanze di dati.
Drew Stein, CEO di Audigent, ha evidenziato con lucidità tecnica il vantaggio competitivo di Big G:
In un mondo in cui la perdita di segnale sarà un punto di impatto significativo per tutti gli acquisti media, Google sarà in grado di fornire soluzioni che, francamente, altri non potranno offrire. Potrebbero non essere stati i primi sul mercato, ma hanno l’opportunità di aggiungere un livello di indirizzabilità e garanzia futura che altri non hanno.
— Drew Stein, CEO e co-fondatore di Audigent
Stein si riferisce alla “perdita di segnale” causata dalla fine dei cookie di terze parti.
Mentre il resto del mercato deve arrabattarsi con ID alternativi e probabilistic matching, Google siede su una miniera di dati di prima parte loggati (Chrome, Android, YouTube) che può mappare direttamente sull’inventario curato.
È un’architettura chiusa, certo, ma terribilmente efficiente.
Il problema, per i puristi della tecnologia open source e per i regolatori, è che questa efficienza ha un costo: la trasparenza.
Se Google cura l’inventario all’interno della sua stessa scatola nera, chi controlla che non stia favorendo le proprie proprietà o nascondendo le fee?
La curation dovrebbe essere un processo di selezione trasparente, non un altro algoritmo opaco.
La fine dell’intermediario passivo
L’aspetto più interessante di questa evoluzione è che costringe ogni attore della filiera a giustificare la propria esistenza tecnica.

I vecchi ad network che si limitavano a fare arbitraggio — comprando a 1 e rivendendo a 2 senza aggiungere valore — sono destinati all’obsolescenza.
La curation premia chi possiede dati proprietari unici o accesso esclusivo all’inventario.
I dati confermano che il mercato premia questa “pulizia” del codice commerciale: i deal curati stanno garantendo un CPM due o tre volte superiore rispetto al mercato aperto, dimostrando che gli inserzionisti sono disposti a pagare di più per avere la certezza di dove finiscono i loro annunci.
È la vittoria della qualità sulla quantità, un principio che ogni buon sviluppatore conosce bene.
Joe Root, CEO di Permutive, sottolinea però come l’ingresso di Google cambi gli equilibri per l’Open Web:
Questo è un passo importante per l’open web a causa della quantità di inventario pubblicitario che viene transata attraverso le tubature di Google.
— Joe Root, CEO di Permutive
Root usa il termine “tubature” (pipes) non a caso.
Google controlla l’idraulica del web.
Se decide che l’acqua (i budget) deve scorrere attraverso i suoi filtri di curation, il resto dell’ecosistema rischia di prosciugarsi o di diventare un semplice affluente secondario.
Siamo di fronte a un bivio tecnologico.
Da una parte c’è la promessa della curation come strumento di emancipazione per gli editori, che possono finalmente valorizzare la propria audience senza svenderla nel calderone dell’Open Market.
Dall’altra c’è il rischio che la curation diventi solo un’altra feature nel pannello di controllo di un monopolista, un’ottimizzazione locale che rafforza un sistema centralizzato globale.
La tecnologia per decentralizzare e pulire il mercato esiste ed è elegante; resta da vedere se il mercato avrà il coraggio di usarla o se preferirà, ancora una volta, la comodità della soluzione pre-impacchettata dal gigante di turno.