Google ha un problema con i numeri di telefono falsi
Google sviluppa simulatori umani avanzati come ConvApparel, ma i suoi prodotti AI commettono errori pericolosi che causano perdite finanziarie agli utenti, sollevando questioni di governance.
La ricerca accademica sui chatbot è avanzata, ma i prodotti reali continuano a fornire informazioni pericolose e fraudolente.
Google sa perfettamente come simulare una conversazione umana realistica, ma non riesce a impedire che la sua intelligenza artificiale reale dia alle persone numeri di telefono fraudolenti. Perché?
Mentre i suoi ricercatori pubblicano studi sofisticati per misurare il ‘divario di realismo‘ nei chatbot, i prodotti che toccano milioni di persone, come gli AI Overviews di Google, continuano a fallire in modo clamoroso e costoso. Le vittime hanno subito perdite finanziarie dopo aver seguito consigli sbagliati, nonostante la compagnia abbia promesso protezioni anti-truffa per l’AI di Google. C’è un problema di priorità, o di capacità?
Il simulacro perfetto e l’errore imperfetto
Il 9 aprile 2026, Google Research ha svelato ConvApparel, un framework per creare simulazioni di clienti iper-realistiche. Lo scopo dichiarato è quantificare il gap tra un bot e un umano. La ricerca sul divario di realismo nei simulatori è meticolosa: usa un protocollo di raccolta dati dual-agent dove uno dei due agenti è deliberatamente metodologia di ricerca ConvApparel. Il sistema si valuta su tre pilastri, tra cui un sofisticato framework di valutazione per simulatori realistici.
È ricerca di altissimo livello. Ma a pochi metri di distanza virtuale, nel mondo reale, i prodotti di Google faticano a distinguere un assistente legittimo da un truffatore.
La promessa dell’AI Shopping e il cortocircuito nelle risposte
Google spinge da mesi sulle esperienze di acquisto guidate dall’IA, dove chatbot conversazionali dovrebbero guidare gli acquisti. Questi sistemi si nutrono degli stessi dati di prodotto di base forniti a Google. Se i dati sono buoni, l’esperienza dovrebbe essere sicura. Eppure, la qualità delle risposte generative è un’altra cosa.
Secondo un’analisi del New York Times, Google sbaglia una risposta su dieci. Un confronto indipendente del 2026 è ancora più impietoso: il tasso di errore degli AI Overviews può schizzare fino al 15%. Non si tratta di sfumature, ma di informazioni palesemente sbagliate o pericolose.
Chi ci guadagna da questo scarto? I laboratori di ricerca, che pubblicano paper all’avanguardia. I team marketing, che vendono un futuro di shopping conversazionale impeccabile. E i giganti tech, che fanno pressione per autorregolamentazione basata su standard che loro stessi definiscono.
Tra GDPR e antitrust, il rischio è normativo
Il paradosso è diventato un rischio sistemico. Quando un utente riceve un numero falso per un servizio bancario e subisce un addebito fraudolento, di chi è la responsabilità? La direttiva sul GDPR parla di “accountability”. Le autorità antitrust europee guardano con sospetto all’uso dei dati per creare vantaggi sleali.
Google sta costruendo simulatori sempre più perfetti per testare mondi virtuali, mentre nel mondo reale la sua IA distribuisce errori a milioni di persone. La domanda quindi non è tecnica, ma di governance: perché gli investimenti in sicurezza accademica non si traducono in protezioni pratiche per gli utenti?
Fino a che punto possiamo fidarci di aziende che sanno creare una finzione realistica, ma non riescono a gestire la realtà delle loro stesse creazioni?