Google Ads Performance Max: test A/B per ottimizzare gli asset creativi
una funzionalità che, pur presentandosi come un passo verso la trasparenza, solleva dubbi sulla sua reale efficacia per gli inserzionisti e sui benefici nascosti per l’algoritmo di Mountain View.
Google ha appena reso disponibile a tutti gli inserzionisti una nuova funzione di A/B testing per gli asset creativi all’interno delle campagne Performance Max. L’annuncio, arrivato in sordina a gennaio dopo una beta limitata al retail, promette di «aiutare gli inserzionisti a misurare e ottimizzare ciò che funziona» permettendo di confrontare due set di creatività diverse all’interno dello stesso gruppo di asset.
Sulla carta, è un passo verso una maggiore trasparenza e controllo in un prodotto, Performance Max, spesso criticato per il suo funzionamento da scatola nera.
Ma quando è Google a offrirti gli strumenti per testare la sua stessa piattaforma automatizzata, sorge spontanea una domanda: chi sta davvero mettendo sotto esame chi?
La nuova funzione, accessibile dalla sezione «Esperimenti» di Google Ads, permette di dividere il traffico di una campagna Performance Max tra un gruppo di controllo (asset A, quelli esistenti) e un gruppo di trattamento (asset B, nuove proposte). Gli asset comuni non coinvolti nel test continuano a essere mostrati al 100% del traffico.
Una volta avviato, l’esperimento blocca la modifica degli asset testati e, secondo le linee guida, dovrebbe durare almeno quattro-sei settimane per superare la fase di apprendimento del sistema e produrre risultati statisticamente significativi.
Il sistema di guida agli esperimenti determina la durata necessaria per risultati statisticamente significativi.
Un framework strutturato che sembra rispondere alle richieste di molti marketer frustrati dall’opacità degli algoritmi.
Performance Max ora supporta l’A/B testing integrato per gli asset creativi, il che consente agli inserzionisti di misurare e ottimizzare ciò che funziona
— Google Ads Help
Tuttavia, bisogna chiedersi perché questa elementare funzionalità di testing – un caposaldo del marketing digitale da anni – arrivi solo ora, a quasi cinque anni dal lancio di Performance Max.
La risposta ufficiale è che Google vuole «convalidare le ipotesi creative» e «migliorare il processo decisionale a livello di asset» per gli inserzionisti.
Ma c’è un sottotesto strategico impossibile da ignorare: la crescente pressione competitiva.
Meta, con il suo Dynamic Creative, e Amazon, con sofisticati sistemi di bidding dinamico, offrono da tempo strumenti di ottimizzazione automatizzata che permettono di testare migliaia di combinazioni pubblicitarie per adattarle alle preferenze individuali.
In questo contesto, l’A/B testing di Google sembra più un tentativo di recuperare terreno che un’innovazione genuina.
Soprattutto se si considera che la funzione è stata testata in beta per campagne retail già dall’ottobre 2024, suggerendo una rollout cauta e calcolata.
Cosa succede davvero quando «sblocchi» gli asset per il test?
Il meccanismo tecnico è chiaro, ma le implicazioni per il controllo dell’inserzionista sono meno trasparenti.
Quando si avvia un esperimento, non è possibile modificare, aggiungere o rimuovere alcun asset nel gruppo di asset che viene testato fino al termine dell’esperimento.
Le pagine di modifica diventano in «sola lettura».
Questo vincolo, giustificato per l’integrità statistica del test, di fatto trasferisce il controllo operativo a Google per un periodo prolungato.
In un ecosistema dove la velocità di reazione è tutto, bloccare la possibilità di aggiornare una creatività per oltre un mese è un rischio non da poco.
Inoltre, gli asset nuovi caricati per il gruppo di trattamento subiscono il consueto processo di revisione delle policy di Google.
Chi garantisce che un ritardo o una disapprovazione arbitraria non infici il confronto?
L’inserzionista si trova nella posizione paradossale di dover affidare a Google la valutazione imparziale di un test che misura l’efficacia del sistema di Google stesso.
Il vero nodo, come sempre con le piattaforme pubblicitarie, risiede nei dati e negli incentivi.
Performance Max funziona alimentando il suo algoritmo con segnali provenienti da tutta la Rete Google – Search, YouTube, Gmail, Display – per decidere dove, quando e a chi mostrare un annuncio.
L’A/B testing sugli asset creativi è solo uno degli input.
Ma cosa apprende realmente Google da questi esperimenti?
L’azienda afferma che i dati servono a «aiutare gli inserzionisti a trovare la combinazione creativa migliore».
È altrettanto plausibile, però, che servano ad affinare ulteriormente i modelli di machine learning di Google, rendendo il suo ecosistema pubblicitario più efficace e, di conseguenza, più indispensabile e costoso.
Ogni test eseguito da un’azienda è una lezione gratuita per l’IA di Mountain View.
Gli esperimenti di ottimizzazione testano diverse varianti delle campagne Performance Max modificandone le impostazioni, ma il confine tra ciò che serve all’inserzionista e ciò che serve a Google per ottimizzare i propri ricavi diventa sempre più labile.
Un passo verso la trasparenza o un diversivo ben orchestrato?
Tim Frank, Senior Director of Product Management di Google Ads, ha presentato queste novità come parte di un più ampio sforzo per dare agli inserzionisti «modi per ottimizzare le prestazioni».
Ma è lecito essere scettici.
Per anni, gli esperti del settore hanno denunciato la mancanza di reporting granulare e di controllo sui posizionamenti in Performance Max.
L’introduzione di un A/B testing per gli asset, per quanto utile, non affronta le critiche più sostanziali: l’impossibilità di sapere esattamente dove viene speso il budget, la commistione di inventory di qualità diversa e il rischio di cannibalizzare altre campagne.
È come se un meccanico vi offrisse un nuovo strumento per testare la vernice della vostra auto, mentre il motore continua a funzionare in modalità opaca e a consumare più carburante del previsto.
La mossa va inoltre letta nel quadro normativo in evoluzione.
Con il Digital Markets Act (DMA) dell’Unione Europea che impone maggiore interoperabilità e trasparenza alle «gatekeeper», e una crescente attenzione dei regolatori sulla leva pubblicitaria dei giganti tech, offrire strumenti di «controllo» e «misurazione» diventa anche un’abile operazione di relazione pubblica.
Dimostra una presunta volontà di empowerment dell’inserzionista, disinnescando potenziali accuse di pratiche opache.
Google stessa ammette che per determinare come si comporta il tuo esperimento rispetto a campagne simili, puoi attivare l’interruttore “Visualizza risultati con campagne comparabili” nei report di Google Ads.
Ma chi definisce cosa sia «comparabile»?
Il giudice e la giuria sono ancora una volta la stessa entità.
Alla fine, la domanda cruciale rimane senza una risposta convincente: questo A/B testing è progettato per rendere gli inserzionisti più indipendenti e informati, o per legarli ancora più strettamente alla logica black-box di Performance Max, fornendo l’illusione del controllo mentre il vero potere decisionale rimane saldamente nelle mani dell’algoritmo?
Gli inserzionisti otterranno forse creatività leggermente più performanti, ma il prezzo sarà un’ulteriore dose di dipendenza dai sistemi automatizzati di Google, che continueranno a decidere il valore reale di ogni click e conversione nel loro giardino murato.
In un mercato che chiede a gran voce trasparenza e sovranità sui dati, l’ultima novità di Google Ads sembra un abile specchietto per le allodole, ben lucidato ma che riflette soprattutto gli interessi di chi lo ha costruito.