Performance max: Google ammette i suoi errori con le esclusioni dei dati

Performance max: Google ammette i suoi errori con le esclusioni dei dati

Performance Max: Google ammette le sue fallibilità introducendo le “esclusioni dei dati” per correggere gli errori algoritmici.

C’è un tacito accordo tra gli sviluppatori e le piattaforme pubblicitarie che dura da anni: noi vi diamo i dati, voi ci date i risultati. Nel mezzo c’è quella che in gergo tecnico chiamiamo “black box”, una scatola nera dove algoritmi di machine learning macinano conversioni e decidono il destino dei budget.

Performance Max (PMax), introdotta ormai cinque anni fa, è stata l’apoteosi di questo concetto: massima automazione, minimo controllo manuale.

Tuttavia, il 27 gennaio 2026 segna un punto di svolta interessante, quasi un’ammissione di fallibilità da parte del colosso di Mountain View. L’introduzione delle “esclusioni dei dati” (Data Exclusions) specifiche per le campagne Performance Max non è una semplice feature aggiuntiva, ma un cambiamento filosofico nella gestione dello Smart Bidding.

Fino a ieri, se il tracking delle conversioni “rompeva” per 48 ore a causa di un bug nel sito o di un aggiornamento maldestro del tag manager, l’algoritmo imparava da dati errati, “avvelenando” il modello predittivo per settimane. Oggi, Google ci sta finalmente passando il bisturi per rimuovere chirurgicamente quei dati corrotti.

La novità tecnica risiede nella granularità. Non stiamo più parlando di esclusioni generiche a livello di account, ma della capacità di intervenire a livello di singola campagna.

Il paradosso dell’automazione totale

Per comprendere la portata tecnica di questo aggiornamento, bisogna ricordare come Performance Max sia stata progettata per gestire autonomamente l’inventario su Search, YouTube e Display. La promessa era seducente: l’AI trova le conversioni dove l’umano non guarderebbe.

Il problema strutturale di questo approccio, tuttavia, è sempre stato il principio del Garbage In, Garbage Out. Se l’input è sporco, l’output decisionale dell’algoritmo sarà inevitabilmente scadente.

Gli inserzionisti si sono trovati spesso in situazioni paradossali: un errore tecnico nel tracciamento (magari un doppio conteggio delle conversioni) portava lo Smart Bidding a credere che una campagna stesse performando in modo eccezionale, alzando i bid in modo aggressivo. Quando l’errore veniva corretto, il modello impiegava giorni, se non settimane, per “dimenticare” quel falso positivo e ricalibrare il CPA (Costo per Acquisizione) o il ROAS (Ritorno sulla Spesa Pubblicitaria).

L’aggiornamento odierno risolve questo bug logico. La nuova funzionalità permette di indicare al sistema intervalli di date specifici da ignorare completamente nei calcoli del bidding. È un meccanismo di rollback selettivo: non cancelliamo i dati storici dal report, ma diciamo al cervello della macchina: “Quello che è successo tra il 10 e il 12 gennaio non è reale, non usarlo per prevedere il futuro”.

Ma c’è un dettaglio implementativo che merita attenzione e che spesso sfugge nelle note di rilascio più superficiali.

Una concessione necessaria

La vera notizia non è solo la possibilità di escludere date, ma l’applicazione di queste esclusioni a segmenti specifici come le liste di visitatori del sito e il Customer Match. Questo suggerisce un’evoluzione nell’architettura del sistema.

Le esclusioni si trovano ora nelle impostazioni della campagna, sotto la voce “Le tue esclusioni di dati”, annidate nelle opzioni demografiche.

Questa posizione non è casuale.

Indica che Google sta trattando i dati di conversione errati alla stregua di un target demografico non desiderato. È un approccio pragmatico che risponde alle esigenze di chi gestisce budget complessi e non può permettersi la latenza di apprendimento dell’AI. Inoltre, le recenti funzionalità lanciate per offrire maggiore visibilità e controllo dimostrano che la piattaforma sta cercando di bilanciare la sua spinta verso l’automazione con la necessità, sempre più vocale, di trasparenza da parte degli utenti tecnici.

Non è un ritorno al controllo manuale del CPC (un’era geologica fa, tecnologicamente parlando), ma è il riconoscimento che l’automazione senza supervisione è un rischio operativo. L’algoritmo è potente, ma manca di contesto: non sa che il server è andato giù o che il CRM ha smesso di sincronizzare i lead offline.

Solo l’operatore umano possiede questo contesto, e ora ha lo strumento per comunicarlo alla macchina.

Questo apre uno scenario interessante sulla gestione delle API.

Dietro le quinte dell’algoritmo

Dal punto di vista dello sviluppo, l’interazione con queste esclusioni avviene attraverso risorse specifiche che permettono di manipolare il comportamento dello Smart Bidding. È affascinante notare come gli sviluppatori possano utilizzare l’API per creare esclusioni programmatiche, definendo con precisione chirurgica l’ambito (CAMPAIGN o CHANNEL) e i timestamp di inizio e fine.

La documentazione tecnica rivela che una singola esclusione può essere applicata fino a 2000 campagne diverse. Questo dettaglio numerico svela l’architettura sottostante: il sistema non ricalcola il modello per ogni singola entità in isolamento, ma applica un filtro sui dataset di training prima che questi vengano ingeriti dalle pipeline di machine learning del bidding.

In pratica, quando attiviamo un’esclusione, stiamo modificando il set di addestramento in tempo reale. È una soluzione tecnicamente elegante perché evita il “catastrophic forgetting” (quando un modello dimentica tutto ciò che ha imparato) e forza invece un “selective ignoring”.

Tuttavia, resta una soluzione reattiva. L’inserzionista deve accorgersi dell’errore, diagnosticare l’intervallo temporale e applicare la correzione.

Nel frattempo, il budget è stato speso.

La mossa di Google di estendere queste capacità a Performance Max, che per definizione è il formato più opaco dell’ecosistema, suggerisce che la “scatola nera” sta diventando, se non trasparente, almeno traslucida. Le critiche mosse negli anni passati riguardo alla mancanza di controllo su dove e come venissero spesi i soldi hanno chiaramente colpito nel segno.

Resta da chiedersi se questa nuova flessibilità sia un reale passo avanti verso una collaborazione uomo-macchina più equilibrata, o se sia semplicemente un modo per le piattaforme di scaricare sugli utenti la responsabilità di pulire i dataset che i loro stessi algoritmi non sono ancora abbastanza intelligenti da interpretare correttamente.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie