Google ha bloccato 8,3 miliardi di annunci con l'IA

Google ha bloccato 8,3 miliardi di annunci con l’IA

Google ha bloccato 8,3 miliardi di annunci nel 2025 grazie all'IA Gemini, con una precisione del 99%. L'FBI segnala per la prima volta frodi AI-assisted, evidenziando il duplice ruolo dell'intelligenza artificiale.

Il sistema ha intercettato oltre il 99% delle violazioni prima della pubblicazione, ridisegnando la difesa digitale.

Il numero è difficile da visualizzare in astratto: 8,3 miliardi. Secondo il rapporto Ads Safety 2025 di Google, sono gli annunci bloccati o rimossi nell’arco di un singolo anno grazie agli strumenti alimentati da Gemini. Nello stesso periodo, il rapporto IC3 dell’FBI ha incluso per la prima volta nella sua storia quasi venticinquennale una sezione dedicata all’intelligenza artificiale nelle frodi digitali — un segnale che il problema non è più di nicchia. I due eventi, presi insieme, disegnano un panorama in cui l’IA è contemporaneamente vettore di attacco e principale linea di difesa. E per chi progetta sistemi pubblicitari o piattaforme ad alto volume di contenuti generati dagli utenti, i dettagli tecnici dietro quei miliardi di blocchi meritano attenzione.

La precisione di Gemini AI: un dettaglio che conta

Il dato più interessante non è la quantità, ma il tasso di precisione: nel 2025 i sistemi di Google hanno intercettato oltre il 99% degli annunci che violavano le policy prima che venissero pubblicati. Questo significa che la detection avviene upstream, in fase di review automatica, non come rimozione reattiva a seguito di segnalazione. Dal punto di vista architetturale, è una differenza sostanziale: spostare il controllo a monte riduce l’esposizione degli utenti, abbassa i costi di moderazione post-pubblicazione e rende meno efficaci i vettori di attacco che fanno leva sulla velocità di diffusione.

I numeri di supporto aiutano a capire la scala operativa. Dei 8,3 miliardi di annunci bloccati, 602 milioni erano associati a truffe, e parallelamente sono stati sospesi 24,9 milioni di account pubblicitari, di cui 4 milioni collegati direttamente ad attività fraudolente. C’è un altro indicatore rilevante: nel 2025 i team di Google hanno agito su oltre quattro volte il numero di segnalazioni degli utenti rispetto all’anno precedente. Questo suggerisce che i modelli LLM non hanno semplicemente sostituito il lavoro umano, ma lo hanno amplificato — aumentando la superficie di enforcement senza un incremento proporzionale delle risorse umane. Già nel 2024, stando al rapporto Ads Safety 2024 di Google, l’azienda aveva lanciato oltre 50 miglioramenti ai propri LLM, costruendo le basi per i risultati attuali. L’investimento pluriennale nell’infrastruttura di classificazione è quello che rende possibile la precisione del 99%: non è un risultato di una singola iterazione, ma l’output di un training pipeline affinato nel tempo.

Dietro le quinte: come l’IA ridisegna il mercato

Google non è l’unico player a muoversi su questo fronte, ma i numeri degli altri dicono molto sul divario tecnico. Microsoft ha dichiarato di aver rimosso o limitato oltre un miliardo di annunci in violazione delle sue policy pubblicitarie nel 2024 — un risultato significativo in termini assoluti, ma un ordine di grandezza inferiore rispetto ai numeri Google. La differenza non è spiegabile solo dalla dimensione del mercato: riflette anche scelte diverse nell’investimento in infrastruttura di sicurezza e nella maturità dei modelli di classificazione.

Il caso Meta è invece istruttivo per ragioni opposte. Secondo un’inchiesta di Ars Technica, l’azienda avrebbe proiettato di guadagnare miliardi ignorando annunci truffa che le sue piattaforme indirizzavano deliberatamente agli utenti più propensi a cliccarci. Più rivelatoria ancora la logica interna: Meta sarebbe stata esitante a rimuovere bruscamente certi account, compresi quelli identificati internamente come tra i più truffaldini, per timore che un calo delle entrate potesse ridurre le risorse disponibili per la crescita dell’intelligenza artificiale. È un corto circuito evidente: usare i proventi delle frodi per finanziare la ricerca AI che dovrebbe, tra le altre cose, combattere le frodi. Il contrasto con l’approccio Google è netto, e solleva domande che vanno oltre la tecnica.

Cosa cambia per chi sviluppa: lezioni dal fronte

Qui entra in gioco il rapporto IC3 dell’FBI. Per la prima volta nella sua storia quasi venticinquennale, il documento include una sezione dedicata all’intelligenza artificiale, segnalando 22.364 denunce legate a frodi AI-assisted, per un costo complessivo di quasi 893 milioni di dollari agli americani. Il fatto che l’FBI abbia ritenuto necessario creare una categoria specifica è un marker significativo: l’IA come strumento offensivo ha raggiunto una diffusione tale da richiedere tassonomie dedicate nelle classificazioni dei crimini informatici.

Per chi progetta piattaforme pubblicitarie o sistemi ad alta densità di contenuti generati dagli utenti, le implicazioni operative sono concrete. Il modello di Google dimostra che integrare classificatori LLM nel flusso di approvazione degli annunci — con detection upstream invece che downstream — produce risultati misurabili in termini di enforcement rate. Ma c’è un trade-off reale: un sistema che blocca oltre il 99% delle violazioni prima della pubblicazione deve anche gestire i falsi positivi, ovvero gli annunci legittimi bloccati erroneamente. La pressione sul recall è alta, e un tasso di errore anche piccolo, moltiplicato per miliardi di transazioni, genera un volume significativo di casi borderline da gestire.

Il vero punto di riflessione, però, è strutturale. Il caso Meta illustra plasticamente cosa succede quando i vincoli economici di breve periodo competono con la qualità del sistema di moderazione: si accumulano debiti tecnici ed etici difficili da ripagare. L’ironia è che l’IA usata per monetizzare le frodi e l’IA usata per bloccarle sono, in fondo, la stessa tecnologia applicata con obiettivi opposti. Per chi costruisce piattaforme oggi, la domanda non è se integrare modelli avanzati di classificazione nel proprio stack — i numeri dimostrano che funzionano — ma quanto presto e con quale architettura farlo, tenendo conto che i vincoli etici e quelli economici non sempre convergono nella stessa direzione.

🍪 Impostazioni Cookie