Google ha bloccato il 99% degli annunci dannosi prima che fossero pubblicati
I sistemi AI di Google, alimentati da Gemini, hanno intercettato oltre il 99% degli annunci dannosi prima della pubblicazione nel 2025, bloccando 8,3 miliardi di annunci e sospendendo 24,9 milioni di account.
Il sistema basato su Gemini ha bloccato 8,3 miliardi di annunci e sospeso quasi 25 milioni di account.
Quando un sistema AI intercetta oltre il 99% degli annunci che violano le politiche prima ancora che vengano mostrati a un utente, non si tratta di una soglia simbolica: è la differenza tra un filtro reattivo e un’architettura che ragiona sull’intenzione. Secondo il report 2025 sulla sicurezza degli annunci di Google, i sistemi alimentati da Gemini hanno raggiunto questa percentuale nell’arco dell’anno scorso, ridefinendo il metro di misura nell’enforcement pubblicitario. In parallelo, Google ha bloccato o rimosso oltre 8,3 miliardi di annunci totali e sospeso 24,9 milioni di account — numeri che da soli raccontano la scala del problema, ma non il salto qualitativo che li ha resi possibili.
Il balzo in avanti del 2025: i numeri che contano
Il dato più significativo non è il volume grezzo di annunci rimossi, ma la capacità di agire in anticipo. Nel 2025, Google ha gestito oltre quattro volte il numero di segnalazioni degli utenti rispetto all’anno precedente — e lo ha fatto senza che la velocità di risposta collassasse sotto il peso delle richieste. Tra i 8,3 miliardi di annunci bloccati, 602 milioni erano direttamente associati a truffe, insieme a 4 milioni di account sospesi per lo stesso motivo. La truffa pubblicitaria non è una coda lunga del problema: è uno dei vettori principali, e i numeri lo confermano.
Per contestualizzare la traiettoria, vale la pena guardare indietro: già nel 2023, stando a il report sulla sicurezza degli annunci del 2023, Google aveva bloccato oltre 5,5 miliardi di annunci e rimosso 12,7 milioni di account di inserzionisti. In due anni, il volume degli annunci rimossi è cresciuto di quasi tre miliardi di unità. Ma la vera discontinuità non è quantitativa: è il passaggio da un sistema che reagisce a uno che previene — e questo cambiamento passa interamente da Gemini.
Sotto il cofano: come Gemini decifra l’intento
I sistemi di moderazione basati su keyword matching hanno un problema strutturale: sono statici. Un attore malevolo che conosce la lista di termini bloccati può semplicemente riformulare il messaggio — sostituire una parola con un sinonimo, spezzare una stringa, introdurre caratteri Unicode omoglifi — e attraversare il filtro senza attivare nessun alert. È un gioco del gatto e del topo in cui il gatto si aggiorna troppo lentamente.
L’approccio di Gemini è architetturalmente diverso. Come spiega Google nel report, i modelli più recenti comprendono meglio l’intento rispetto ai precedenti sistemi basati su parole chiave, e sono in grado di individuare contenuti dannosi e bloccarli preventivamente, anche quando sono progettati per eludere il rilevamento. La distinzione tecnica è sostanziale: invece di cercare pattern lessicali predefiniti, il modello costruisce una rappresentazione semantica dell’annuncio — testo, immagini, landing page di destinazione, comportamento storico dell’account — e valuta la probabilità che l’intenzione sottostante violi le policy. È un problema di classificazione multi-segnale, non di lookup su una blacklist.
L’analogia più utile è quella del filtro antispam moderno rispetto ai filtri degli anni 2000. Un filtro bayesiano elementare cercava parole come “Viagra” o “Nigerian prince”: bastava scrivere “V!agra” per passare. Un modello linguistico attuale capisce che quella email sta cercando di vendere farmaci senza prescrizione o di estorcere denaro, indipendentemente dall’ortografia adottata. Gemini porta questa logica al contesto pubblicitario, con la complessità aggiuntiva di dover operare su miliardi di richieste in tempo reale e aggiornare continuamente le proprie rappresentazioni man mano che i pattern di abuso evolvono.
La corsa all’AI nella moderazione pubblicitaria
Google non gioca questa partita da solo. Secondo gli strumenti anti-truffa di Meta, l’azienda di Menlo Park ha rimosso oltre 159 milioni di annunci truffa nel 2024, e nel 2025 ha vietato più di 12,1 milioni di contenuti pubblicitari in India per violazioni delle politiche contro frodi e pratiche ingannevoli. Sul fronte Microsoft, stando a la review annuale sulla sicurezza degli annunci di Microsoft, nel 2024 la piattaforma ha rimosso o limitato oltre un miliardo di annunci violativi e sospeso più di 475.000 account. I numeri assoluti sono inferiori — la scala delle rispettive reti pubblicitarie è diversa — ma la direzione è identica: tutti i grandi player stanno sostituendo la moderazione basata su regole statiche con sistemi di inferenza contestuale.
Il contrasto più rilevante non è tra competitor, ma tra generazioni tecnologiche. Chi costruisce oggi uno stack di sicurezza per piattaforme pubblicitarie — o più in generale per qualsiasi sistema di distribuzione di contenuti a pagamento — si trova di fronte a una scelta architetturale precisa: continuare a manutenere pipeline di filtraggio basate su dizionari e regex, o integrare modelli capaci di ragionare sul contesto. Il primo approccio ha costi di manutenzione crescenti e una superficie di bypass proporzionale alla creatività degli attori malevoli. Il secondo richiede investimenti infrastrutturali significativi, ma produce sistemi che migliorano con i dati anziché invecchiare con l’abuso.
Per chi sviluppa su questi stack, la transizione implica abbandonare la logica del “lista di blocco aggiornata periodicamente” per passare a pipeline di scoring dinamico, dove ogni annuncio viene valutato da un ensemble di segnali — semantica del testo, coerenza tra creativo e landing page, reputazione dell’account, comportamento storico — e una soglia di confidenza determina se bloccare, mettere in revisione manuale o approvare. L’enforcement diventa un problema probabilistico, non deterministico, e lo stack di sicurezza smette di essere un layer passivo per diventare un componente attivo e adattivo dell’infrastruttura.