Google ha promesso protezioni anti-truffa per la sua AI

Google ha promesso protezioni anti-truffa per la sua AI

Gli AI Overviews di Google hanno indirizzato utenti verso numeri di supporto fraudolenti, causando perdite finanziarie. Google promette protezioni anti-truffa mentre le vittime non possono disattivare la funzione.

La funzione, che non può essere disattivata, ha già mostrato risposte errate e numeri di telefono falsi.

Come può un’intelligenza artificiale progettata per semplificare le ricerche finire per indirizzare gli utenti verso numeri di supporto fraudolenti, causando perdite finanziarie reali? È la domanda che emerge dalla lettura di l’articolo di WIRED sulle vulnerabilità degli AI Overviews, che ricostruisce un problema concreto e documentato: la funzionalità AI di Google Search ha mostrato ripetutamente numeri di assistenza clienti fraudolenti tra i risultati, spingendo utenti ignari a contattare truffatori che si spacciavano per rappresentanti ufficiali di aziende legittime. Le vittime hanno subito perdite finanziarie e addebiti non autorizzati dopo aver condiviso informazioni sensibili. Google, dal canto suo, ha risposto con una dichiarazione rassicurante: «Le nostre protezioni anti-spam sono altamente efficaci nel tenere le truffe fuori dagli AI Overviews e nel mostrare numeri ufficiali di assistenza clienti dove possibile». Una frase che, alla luce di quanto documentato, suona quantomeno ottimistica.

Il paradosso delle protezioni AI

Il punto di partenza è questo: Google ha dichiarato di aver recentemente lanciato una serie di aggiornamenti per migliorare ulteriormente le protezioni anti-truffa specificamente per gli AI Overviews. La domanda ovvia è: perché proprio ora? Quando un’azienda annuncia con urgenza una serie di miglioramenti alla sicurezza, di solito è perché qualcosa non ha funzionato abbastanza a lungo da diventare imbarazzante ignorarlo. Eppure il messaggio pubblico continua a essere quello della solidità, non della correzione di una falla.

Va ricordato che gli AI Overviews non sono una funzione nuova e senza storia. Già a maggio 2024, Google li aveva lanciati negli Stati Uniti con l’obiettivo dichiarato di portarli a oltre un miliardo di persone entro la fine di quell’anno — un’ambizione di scala che avrebbe dovuto imporre la massima cautela. Invece, il lancio fu tutt’altro che fluido: stando a quanto riportato da WIRED, nelle settimane successive comparvero screenshot di risposte assurde e palesemente errate che divennero virali sui social media. La funzione aveva persino affermato, nel 2025, che non era il 2025 — rispondendo alla domanda «è il 2025?» con un triplice «No, non è il 2025» in altrettante versioni della stessa risposta. Non è un dettaglio folkloristico: è un segnale di quanto un sistema del genere possa produrre output fuorvianti con apparente autorevolezza. E se un’AI sbaglia l’anno, può sbagliare anche un numero di telefono — con conseguenze ben più gravi.

Lo smontaggio critico: come le truffe sfruttano l’AI

Per capire la portata del problema, bisogna esaminare la meccanica dell’attacco. Secondo la ricerca di Aurascape sul poisoning dei dati, i ricercatori di Aurascape Aura Labs hanno individuato quella che descrivono come la prima campagna reale in cui aggressori manipolano sistematicamente contenuti web pubblici per fare in modo che sistemi basati su modelli linguistici — come Perplexity e Google AI Overview — raccomandino numeri di telefono fraudolenti come se fossero ufficiali. Non si tratta di un difetto tecnico del modello linguistico in sé: si tratta di un attacco che sfrutta la fiducia che questi sistemi accordano ai contenuti indicizzati sul web. Il sistema funziona esattamente come dovrebbe — raccoglie informazioni da fonti pubbliche e le presenta come risposte — ma quelle fonti sono state avvelenate a monte.

L’ironia è sottile ma feroce: più un sistema AI è bravo a sintetizzare e presentare informazioni con tono autorevole, più diventa uno strumento efficace per chi quelle informazioni le ha falsificate. E la concorrenza non aiuta a rallentare. Nel panorama competitivo, Perplexity ha lanciato Comet, descritto dai ricercatori di Guardio come l’unico browser AI pubblicamente disponibile che non si limita a cercare o riassumere, ma naviga autonomamente, clicca sui link ed esegue compiti. Un sistema che agisce al posto dell’utente, in modo autonomo, su dati potenzialmente avvelenati, è un vettore di rischio di ordine superiore. Con la corsa all’AI che premia la velocità di deployment, la domanda è legittima: la sicurezza degli utenti riesce a tenere il passo?

La domanda irrisolta: chi paga il prezzo?

Di fronte a queste vulnerabilità documentate, la questione della responsabilità rimane sospesa. C’è un dato strutturale che rende il problema difficile da aggirare: attualmente non esiste alcun modo per disattivare gli AI Overviews su Google Search. Non è un’opzione nascosta nelle impostazioni avanzate. Non è prevista. Gli utenti non possono scegliere di non vederli. Il che significa che chiunque utilizzi Google — incluse le persone più vulnerabili alle truffe telefoniche, come anziani o utenti meno esperti di tecnologia — è esposto a questa funzione indipendentemente dalla propria volontà. In un contesto regolatorio europeo in cui la protezione degli utenti digitali è sempre più al centro del dibattito — dall’AI Act al GDPR, passando per il Digital Services Act e gli incidenti documentati dall’OECD AI — questa mancanza di controllo da parte dell’utente finale solleva interrogativi seri sulla conformità e sulla responsabilità aziendale. Google può dichiarare che le sue protezioni sono «altamente efficaci». Ma efficaci rispetto a cosa, e misurate da chi? Nel frattempo, le vittime hanno perso denaro reale. E non possono nemmeno spegnere la funzione che le ha indirizzate verso i truffatori.

Con oltre un miliardo di persone raggiunte dagli AI Overviews, il prezzo dell’innovazione accelerata rischia di essere pagato dai più vulnerabili. E se nessuno può disattivarli, chi protegge gli utenti dalle prossime truffe — in un panorama dove l’AI avanza molto più velocemente di qualsiasi garanzia?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie