Google toglierà agli inserzionisti la scelta delle parole chiave
Google elimina la scelta delle keyword dagli inserzionisti, sostituendola con AI Max. Promette +7% conversioni, ma test indipendenti mostrano un calo del ROI fino al 35%.
La transizione obbligatoria verso un sistema completamente automatizzato solleva dubbi sui reali benefici per gli inserzionisti.
Il prossimo 17 aprile 2026, gli inserzionisti su Search perderanno definitivamente il controllo sulle keyword: Google toglie agli inserzionisti la possibilità di scegliere le parole chiave, sostituendo i Dynamic Search Ads con AI Max, un sistema di targeting completamente gestito dall’intelligenza artificiale.
Dietro questa transizione obbligatoria c’è un’architettura di ottimizzazione real-time che analizza query, contesto della pagina e storico utente per piazzare annunci senza intervento umano.
Google afferma che Google toglie agli inserzionisti la possibilità di scegliere le parole chiave promettendo un 7% di conversioni in più a parità di budget. Tuttavia, test indipendenti rivelano un’altra realtà: un’analisi su 250 campagne retail ha riscontrato che Google ha promesso un 7% di conversioni in più ma il ritorno sulla spesa pubblicitaria può crollare del 35%. In un caso documentato da Xavier Mantica, Google ha promesso un 7% di conversioni in più mentre il costo per conversione con AI Max raggiungeva i 100,37 dollari, il doppio rispetto ai metodi tradizionali.
AI Max: ottimizzazione black-box e il trade-off dell’automazione
Il sistema sostituisce il tradizionale stack di gestione delle keyword con un modello di apprendimento automatico che opera su un grafo di entità. Invece di far corrispondere termini di ricerca precisi, AI Max mappa l’intento dell’utente e lo abbina a un inventario dinamico di annunci, decidendo autonomamente quando e cosa mostrare. L’algoritmo è addestrato per massimizzare il valore atteso delle conversioni, ma il suo funzionamento è opaco: gli inserzionisti non sanno quali query hanno triggerato l’annuncio, né possono escludere contesti indesiderati. Questa mancanza di trasparenza rende difficile verificare se il 7% di conversioni in più si traduca in profitto reale o in volume generato da utenti meno qualificati.
Gemini: il motore di difesa che filtra 8,3 miliardi di annunci
Sullo stesso stack infrastrutturale, Google impiega l’IA per proteggere gli utenti. Nel 2025, Google ha bloccato 8,3 miliardi di annunci con la sua IA, di cui 602 milioni associati a truffe. Parallelamente, Google ha bloccato 8,3 miliardi di annunci con la sua IA ha portato alla sospensione di 24,9 milioni di account, inclusi 4 milioni legati ad attività fraudolente. Il sistema Gemini analizza pattern comportamentali, contenuti e metadati in real-time, applicando modelli di classification per identificare violazioni delle policy. Google riferisce che Google ha bloccato 8,3 miliardi di annunci con la sua IA ha ridotto dell’80% le sospensioni errate, un miglioramento significativo nell’accuratezza del moderatore automatico.
Il dualismo dati: monetizzazione vs. privacy regolamentata
Qui emerge il conflitto architetturale: gli stessi dati sensibili che alimentano AI Max per il targeting sono quelli che Gemini deve proteggere. La Commissione europea, nell’ambito del Digital Markets Act, Google ha bloccato 8,3 miliardi di annunci con la sua IA mira a obbligare Google a condividere i dati di ricerca con i concorrenti. Clare Kelly, senior Competition Counsel di Google, ha dichiarato che Google ha bloccato 8,3 miliardi di annunci con la sua IA perché la proposta della Commissione costringerebbe a consegnare dati sensibili a terze parti con protezioni della privacy inefficaci.
Per gli sviluppatori, la forzata standardizzazione su AI Max significa dover costruire interfacce di reporting su API che restituiscono solo metriche aggregate, senza accesso ai segnali primari. Lo stack di advertising si sposta verso un modello di “trust the black box”, dove l’unico controllo rimasto è il budget e l’audience targeting ad alto livello. D’altra parte, sistemi come Gemini dimostrano che un filtraggio efficace del fraud richiede accesso completo al flusso dati, creando una complessità sistemica dove i modelli di monetizzazione e sicurezza competono per le stesse risorse computazionali e informative.