Google Ads Performance Max: asset in sola lettura durante gli A/B test
Questo tentativo di rispondere alle critiche sulla trasparenza permetterà di confrontare set di immagini, video e testi, ma con asset intoccabili durante il test e altre limitazioni sul controllo.
Per anni, gli inserzionisti che utilizzavano Performance Max di Google Ads hanno dovuto affrontare un paradosso. La promessa era allettante: affidare budget, obiettivi e creatività all’intelligenza artificiale di Google, che avrebbe trovato i clienti migliori su YouTube, Gmail, la Ricerca, le Discover e milioni di siti partner.
La realtà, però, era spesso un salto nel buio.
Quale combinazione di immagini, video e testi stava realmente trainando le conversioni?
Era difficile dirlo, perché il sistema opaco mescolava tutto in un unico calderone.
Ora, quella scatola nera inizia ad aprirsi. Da gennaio 2026, Google sta testando in beta una funzionalità che molti attendevano: gli esperimenti A/B nativi per gli asset all’interno di Performance Max.
Non è solo un nuovo pulsante nell’interfaccia; è il tentativo di Google di rispondere a una critica crescente, offrendo un barlume di controllo in un mondo sempre più automatizzato.
La novità, segnalata per la prima volta da esperti del settore, permette finalmente di confrontare in modo strutturato due set di creatività all’interno dello stesso gruppo di asset. Il meccanismo è quello classico degli A/B test: si definisce un gruppo di controllo (gli asset esistenti, chiamati “Asset A”) e un gruppo di trattamento (“Asset B”) con nuove proposte. Una parte del traffico vede il set A, un’altra parte il set B.
La differenza cruciale è che tutto avviene dentro la singola campagna Performance Max, senza bisogno di duplicarla, riducendo i tempi di “apprendimento” del sistema. Come spiega la documentazione ufficiale, questa funzionalità, attualmente in beta, consente agli inserzionisti di confrontare le prestazioni di due diversi set di asset per identificare le combinazioni creative più efficaci per le loro campagne.
Come funziona il testing nativo (e cosa ti blocca le mani)
L’accesso avviene dalla sezione Esperimenti di Google Ads. Dopo aver selezionato una campagna Performance Max e un suo gruppo di asset, per creare un nuovo esperimento, si seleziona il pulsante più dalla scheda “Tutti gli esperimenti” e, in “Cosa vuoi testare?”, si sceglie Asset. Qui si imposta la suddivisione del traffico tra il braccio di controllo e quello di trattamento. Google raccomanda di far correre l’esperimento per almeno quattro-sei settimane, per permettere al machine learning di stabilizzarsi e ottenere risultati statisticamente significativi.
Ma c’è un prezzo da pagare per questa chiarezza sperimentale: il controllo.
Una volta avviato il test, gli asset nel gruppo sotto esame diventano intoccabili. Non si possono modificare, aggiungere o rimuovere fino alla conclusione dell’esperimento. Le pagine di modifica passano in modalità “sola lettura”. È una gabbia dorata che costringe alla pianificazione, ma frustra chi è abituato a ottimizzazioni in tempo reale. Inoltre, sia gli asset di controllo che quelli di trattamento conteggiano comunque verso i limiti massimi di asset per gruppo, un vincolo da non sottovalutare.
L’obiettivo dichiarato è nobile: isolare l’impatto della pura creatività, eliminando il “rumore” dato da modifiche strutturali alla campagna. Invece di lanciare una nuova landing page e cambiare tre immagini contemporaneamente, sperando di intuire cosa ha funzionato, ora si può testare scientificamente se una foto di prodotto su sfondo bianco performa meglio di una in contesto d’uso.
Per gli addetti ai lavori, è uno strumento potente per trasformare le opinioni in dati.
Ma è sufficiente a placare le ansie di un settore che si sente sempre più espropriato delle sue leve?
Il vero motore è l’ai, ma ora vogliamo il cruscotto
Per comprendere la portata di questa aggiunta, bisogna ricordare che Performance Max è alimentato dall’IA di Google, che utilizza input come budget, obiettivi aziendali e metriche di conversione per trovare clienti potenziali e servire l’annuncio più appropriato con l’offerta ottimale. È un motore potentissimo, ma fino a ieri senza un vero cruscotto per capire quale carburante creativo funzionasse meglio.
L’A/B testing per gli asset è il primo tassello di un cruscotto più ampio.
Parallelamente, Google ha infatti implementato miglioramenti nella reportistica per asset e canali per fornire una maggiore visibilità sulle campagne Performance Max. Gli inserzionisti possono finalmente suddividere le prestazioni degli asset per dispositivo, momento della giornata, conversioni e reti, capendo se quel video brillante converte su YouTube ma fallisce su Gmail.
Questo doppio binario – più automazione e più strumenti di analisi – rivela la tensione strategica in cui si trova Google. Da un lato, spinge gli inserzionisti verso un totale affidamento all’AI con prodotti come Performance Max. Dall’altro, deve rispondere alle pressanti richieste di trasparenza e controllo da parte delle aziende che investono grandi budget.
L’A/B testing nativo è un compromesso: accetta la logica del “black box” per la distribuzione e l’offerta, ma restituisce un po’ di luce sulla fase creativa, che rimane un dominio umano e costoso.
Non è un caso che funzionalità simili esistano da tempo sui competitor. Meta, Microsoft Advertising e Amazon offrono da anni strumenti robusti per testare creatività e impostazioni. Google, con Performance Max, aveva in qualche modo fatto un passo indietro su questo fronte, chiedendo fiducia cieca.
Ora fa marcia indietro, ma solo in parte.
Perché mentre gli esperimenti per le campagne Search o Display sono tipicamente utilizzati per testare strategie di offerta, tipi di corrispondenza delle parole chiave, landing page, pubblico e gruppi di annunci, l’A/B testing di Performance Max rimane confinato agli asset. Non puoi testare facilmente due budget diversi o due strategie di pubblico contrapposte all’interno della stessa campagna automatizzata.
Gli esperimenti Performance Max sono strumenti che aiutano a testare A/B diverse funzionalità, impostazioni e campagne per migliorare i risultati.
— Google Ads Help
La citazione ufficiale è asettica, ma racchiude la filosofia: Google rimane il regista che definisce gli strumenti a disposizione.
Tu puoi testare quello che loro ti permettono di testare.
E anche quando testi, lo fai all’interno di un framework rigidamente controllato. L’Experiment Guidance System di Google decide quando i risultati sono significativi, non tu.
Più dati significano più dipendenza?
Allora, questa è una vittoria per gli inserzionisti o un ulteriore capestro?
La risposta dipende dalla prospettiva. Per l’agenzia media o il professionista PPC, è indubbiamente uno strumento utile che può portare a ottimizzazioni concrete e a giustificare le scelte creative ai clienti. Permette di rispondere a domande fondamentali con dati solidi, migliorando potenzialmente il ritorno sull’investimento.
Tuttavia, per i critici dell’automazione selvaggia, è solo un placebo.
La vera posta in gioco non è quale immagine funziona meglio, ma il fatto che Google controlli ormai ogni aspetto della consegna pubblicitaria: chi vede l’annuncio, quando, su quale canale e, ora, anche quale versione dell’annuncio vedere, tutto ottimizzato da un algoritmo il cui funzionamento è opaco.
Dare più dati di performance, in questa visione, non restituisce potere, ma crea ulteriore dipendenza. Più analizzi i micro-segmenti forniti da Google, più ti allinei alla sua logica, perdendo la visione d’insieme strategica.
L’introduzione dell’A/B testing per gli asset in Performance Max è quindi un sintomo perfetto dell’era dell’advertising ibrido uomo-macchina. Google ammette, tacitamente, che anche la sua AI perfetta ha bisogno del giusto input creativo per volare. E gli inserzionisti ottengono, finalmente, un metro per misurare quel contributo.
Ma in questo scambio, c’è il rischio che ci si concentri così tanto sull’ottimizzare il singolo ingranaggio creativo da dimenticare chi possiede e controlla l’intero motore.
La domanda che rimane aperta, mentre questa beta diventerà disponibile a tutti, è: stiamo imparando a guidare meglio, o ci stiamo semplicemente abituando a essere passeggeri su una rotta predefinita?