Le frodi pubblicitarie hanno superato i cento miliardi di dollari
Le frodi pubblicitarie digitali superano i cento miliardi di dollari. L'Agentic AI alimenta bot sofisticati, mentre Meta guadagna miliardi da annunci fraudolenti. Il settore fatica a reagire.
L’industria pubblicitaria perde cento miliardi l’anno per colpa di bot sempre più sofisticati, mentre i grandi guadagnano.
Trentotto milioni di dispositivi Android compromessi. Due virgola tre miliardi di richieste di offerta pubblicitaria false generate ogni giorno, al picco dell’operazione. Sono i numeri di un singolo schema di ad fraud — uno, tra i tanti attivi in parallelo — emersi da l’analisi di Betanews sulle frodi nell’ad tech. Non è fantascienza, non è un film di Spielberg: è l’infrastruttura criminale che si muove sotto la superficie di ogni campagna digitale, ogni annuncio che compare mentre si legge un articolo, ogni banner che appare nel mezzo di un video. E la domanda da porsi non è “esiste davvero?”, ma “perché il settore pubblicitario continua a far finta di niente?”
Il paradosso della frode digitale
La pubblicità digitale è il motore finanziario di internet: finanzia giornali, piattaforme, creatori di contenuto. È anche, paradossalmente, uno dei settori più permeabili alla criminalità organizzata su scala industriale. Il meccanismo è brutalmente semplice: i bot simulano utenti reali, cliccano su annunci, generano impression false, e gli inserzionisti pagano per un pubblico che non esiste. Il denaro evapora. E nessuno, lungo la catena, ha davvero interesse a fermare il flusso.
Qui entra in gioco il vero nodo del problema, che è anche il più scomodo da ammettere: l’intelligenza artificiale è simultaneamente l’arma e lo scudo. Da un lato, secondo le proiezioni di quest’anno, la caratteristica distintiva delle frodi più sofisticate è l’autonomia garantita dall’Agentic AI, tecnologia che imita modelli di navigazione umana, lo scorrimento lento della pagina, l’esitazione prima del clic — comportamenti che, fino a poco tempo fa, erano considerati la firma inequivocabile di un essere umano. Oggi non più. I bot di nuova generazione non sbagliano: sono addestrati per passare inosservati, e ci riescono con una precisione che i sistemi di rilevamento tradizionali faticano a inseguire. Dall’altro lato, le stesse tecnologie — modelli linguistici avanzati, machine learning applicato all’analisi del traffico — vengono usate per difendersi. Piattaforme come Fraud Blocker dichiarano di analizzare sessanta milioni di indirizzi IP ogni mese per intercettare le minacce in tempo reale. Google, dal canto suo, ha comunicato di stare integrando i Large Language Models nei propri sistemi di sicurezza pubblicitaria, con l’obiettivo esplicito di migliorare la protezione degli utenti online attraverso gli LLM. È una corsa agli armamenti. E le armi sono le stesse per entrambe le parti.
Chi ci guadagna (e chi ci perde)
Seguire il denaro, in questo caso, porta a conclusioni disagevoli. Le perdite globali per frodi pubblicitarie sono proiettate a raggiungere i cento miliardi di dollari nel 2026, secondo le stime di Juniper Research sulle frodi digitali globali. Cento miliardi. È più del PIL di molti stati europei di medie dimensioni. Eppure questo numero racconta solo metà della storia — quella delle vittime. L’altra metà riguarda chi, in questo caos, ci guadagna strutturalmente.
Nel 2024, documenti interni hanno rivelato che Meta aveva stimato di ricavare circa il dieci per cento del proprio fatturato annuale — sedici miliardi di dollari — da pubblicità per truffe e beni vietati, secondo l’inchiesta ABC sui ricavi di Meta dalle frodi pubblicitarie. Sedici miliardi di dollari incassati accettando annunci che non avrebbero dovuto passare alcun filtro. Non è un errore tecnico: è una scelta, almeno implicitamente, di tolleranza verso un tipo di inserzionista che paga bene e fa poche domande. A chi conviene davvero ripulire il sistema? Non certo a chi, da quel sistema opaco, trae profitti miliardari.
La corsa agli armamenti dell’IA
Le aziende del settore stanno rispondendo, questo va riconosciuto. E alcune risposte sono concrete. IAS — Integral Ad Science — è diventata la prima azienda a ottenere la certificazione Ethical AI rilasciata da AAM, l’ente di verifica dell’industria pubblicitaria statunitense. È un segnale, ma è anche una domanda che vale la pena porre: perché questa certificazione esiste solo ora, nel 2026, quando le frodi basate sull’IA sono operative da anni? Chi ha atteso, e perché?
Il problema di fondo è che la risposta tecnologica — per quanto sofisticata — si muove in un vuoto normativo quasi totale. Il GDPR, pensato per proteggere i dati personali degli utenti europei, non è stato progettato per affrontare operazioni di ad fraud su scala industriale orchestrate da agenti artificiali autonomi. Le autorità antitrust, sia in Europa che negli Stati Uniti, si sono concentrate sulle concentrazioni di mercato delle grandi piattaforme, ma quasi mai sul mercato parallelo della frode che su quelle piattaforme prospera. I regolatori si muovono lentamente per definizione — hanno bisogno di evidenza consolidata, di procedimenti lunghi, di norme che per forza di cose inseguono la realtà invece di anticiparla. L’Agentic AI non aspetta.
Resta aperta la domanda più scomoda di tutte: quando un sistema artificiale riesce a imitare il comportamento umano con tale fedeltà da ingannare altri sistemi artificiali progettati per smascherarlo, chi ha la responsabilità legale del danno? La piattaforma che ha ospitato l’annuncio? L’intermediario tecnico che ha validato l’impression? Il regolatore che non ha legiferato in tempo? In assenza di una risposta chiara, il conto — cento miliardi di dollari l’anno — continuerà a essere pagato da chi non aveva modo di sapere di stare finanziando il nulla.
In un mondo dove l’Agentic AI sfuma il confine tra umano e artificiale, tra utente reale e simulacro perfetto, la domanda che rimane è semplice e senza risposta soddisfacente: chi controllerà il gioco, quando la tecnologia diventa così abile nel mentire?