Performance Max di Google: Controllo o Estorsione?

Performance Max di Google: Controllo o Estorsione?

La nuova funzionalità di A/B testing di Google solleva dubbi sulla reale efficacia dell’automazione e sui costi nascosti per gli inserzionisti

Per anni ci è stato detto che dovevamo avere fede. Non in un’entità divina, ma in qualcosa di molto più terreno e profittevole: l’algoritmo di Google.

Dal lancio delle campagne Performance Max (PMax) nel 2021, il mantra di Mountain View è stato un invito quasi religioso a “lasciar fare alla macchina”.

L’automazione avrebbe deciso dove posizionare gli annunci, a chi mostrarli e quanto spendere, il tutto in una scatola nera impenetrabile in cui agli inserzionisti era richiesto solo di inserire la carta di credito e i materiali creativi.

Eppure, proprio oggi, il dogma dell’infallibilità algoritmica sembra mostrare la sua prima, vistosa crepa.

L’apparizione di una nuova funzionalità di A/B testing per gli asset creativi all’interno di Performance Max segna un’inversione a U che ha del paradossale. Dopo aver speso un lustro a convincere il mercato che l’intervento umano fosse obsoleto, se non dannoso, Google sta silenziosamente reintroducendo strumenti di controllo manuale.

La mossa, tutt’altro che un atto di benevolenza verso gli inserzionisti, solleva interrogativi inquietanti su come questi sistemi abbiano gestito i budget fino ad ora e, soprattutto, su chi trarrà reale profitto da questa improvvisa “trasparenza”.

La novità tecnica, apparentemente innocua, nasconde un meccanismo perverso. Gli inserzionisti possono ora creare esperimenti dividendo i propri asset (immagini, testi, video) in gruppi di controllo e gruppi di trattamento, cercando di capire cosa funzioni davvero.

Ma c’è un dettaglio che trasforma questa opportunità in una trappola per il budget: i tempi.

Il miraggio del controllo

La promessa è seducente: riprendere in mano il timone della propria pubblicità.

Tuttavia, analizzando le specifiche tecniche emerse nelle ultime ore, si scopre che il sistema richiede un tributo oneroso in termini di dati e tempo. Per ottenere risultati statisticamente rilevanti, Google suggerisce periodi di test che vanno dalle 4 alle 6 settimane.

Un mese e mezzo.

In un mondo digitale che si muove in millisecondi, chiedere a un’azienda di pagare per sei settimane di “apprendimento” su un test A/B suona meno come un’ottimizzazione e più come un’estorsione gentile.

È interessante notare come la notizia sia trapelata quasi in sordina. Proprio in queste ore Dario Zannoni e altri esperti hanno segnalato la comparsa di questa funzionalità, evidenziando come l’opzione sia apparsa nei pannelli di controllo senza grandi fanfare.

Perché Google non sta celebrando questo ritorno al controllo umano? Forse perché ammettere la necessità di un A/B test manuale equivale ad ammettere che l’intelligenza artificiale, da sola, non è poi così intelligente nel decifrare la qualità creativa?

Il meccanismo prevede che gli asset “comuni” rimangano invariati, mentre si testano variazioni specifiche. Se l’IA fosse davvero onnisciente come promesso nel 2021, avrebbe già dovuto fare questo lavoro in autonomia, scartando le varianti perdenti in tempo reale senza bisogno che l’utente impostasse un esperimento formale di 40 giorni.

La realtà è che l’algoritmo ha bisogno di essere imboccato, e Google ha trovato il modo di far pagare agli utenti il costo del cucchiaio.

Una scatola nera con le finestre dipinte

C’è poi l’elefante nella stanza: la privacy e la profilazione.

Performance Max è, per sua natura, il più vorace collettore di dati dell’ecosistema Google, attingendo simultaneamente da YouTube, Gmail, Search, Maps e Discover. L’introduzione dei test A/B sugli asset non fa che raffinare questa fame di dati.

Quando un inserzionista testa due varianti di un’immagine, non sta solo valutando l’estetica; sta addestrando il modello a riconoscere quali stimoli visivi attivano specifiche reazioni comportamentali in determinati cluster di utenti.

Sotto la lente del GDPR, questa granularità è scivolosa. Stiamo essenzialmente pagando per aiutare una Big Tech a perfezionare i suoi modelli psicometrici, segmentando l’audience in base a reazioni emotive a colori, parole o volti specifici.

E mentre noi ci concentriamo sul rendimento del “Gruppo A” contro il “Gruppo B”, perdiamo di vista che l’intero casinò è truccato.

Google possiede il tavolo da gioco (l’inventario pubblicitario), fornisce le carte (i dati degli utenti) e ora ci vende anche il sistema per contare le carte (l’A/B testing), assicurandosi che il banco vinca sempre sotto forma di budget speso durante la “fase di apprendimento”.

L’ironia è palpabile se si guarda alla cronologia degli eventi. Questa mossa arriva espandendo una fase beta che permette di confrontare gruppi di asset diversi, una funzione che i critici chiedevano da anni. La concessione arriva però nel 2026, solo dopo che PMax ha ormai cannibalizzato la quasi totalità delle campagne manuali, rendendo gli inserzionisti dipendenti da un sistema che non possono più abbandonare.

È la classica strategia del lock-in: prima togli le alternative, poi reintroduci finte libertà all’interno del recinto che hai costruito.

Chi paga il conto dell’apprendimento?

Non bisogna essere economisti per capire il modello di business dietro questa novità. Ogni volta che si lancia un nuovo test, l’algoritmo entra in una fase di instabilità. Durante queste settimane, l’efficienza della campagna tende a fluttuare, spesso verso il basso, mentre il sistema “impara”.

Chi copre i costi di questa inefficienza? L’inserzionista.

Google incassa lo stesso, anzi, forse di più, spingendo gli utenti a incrementare i budget per “velocizzare l’apprendimento” o raggiungere la significatività statistica.

È il trionfo del capitalismo di sorveglianza travestito da strumento tecnico. Ci viene venduta la “trasparenza” — la possibilità di vedere quale titolo funziona meglio — ma ci viene negata la trasparenza su perché funziona meglio, su quali segmenti di pubblico precisi sono stati colpiti e su come quei dati verranno riutilizzati dall’ecosistema Google per avvantaggiare, magari, il nostro concorrente nella prossima asta.

Inoltre, la complessità di gestione aumenta. Invece di semplificare, PMax sta diventando un ibrido mostruoso che richiede sia la fede cieca nell’IA sia la micro-gestione manuale degli asset, scaricando il lavoro cognitivo sull’uomo ma mantenendo il controllo decisionale nella macchina.

Se l’IA sbaglia il target, è colpa dell’algoritmo; se la creatività non performa nel test A/B, è colpa dell’inserzionista che non ha fornito asset adeguati.

Siamo di fronte a un paradosso tecnologico: più gli strumenti diventano “intelligenti”, più ci chiedono di lavorare per loro.

La domanda che ogni direttore marketing e ogni garante della privacy dovrebbe porsi non è “quale variante vincerà il test”, ma perché siamo costretti a partecipare a un esperimento continuo in cui siamo le cavie paganti.

È davvero controllo quello che ci viene offerto, o è solo un passatempo costoso per tenerci occupati mentre l’algoritmo decide il nostro destino economico?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie