L'IA allucina numeri di telefono e ruba traffico: il costo nascosto della 'verità' probabilistica

L’IA allucina numeri di telefono e ruba traffico: il costo nascosto della ‘verità’ probabilistica

Questo è il risultato della natura probabilistica dell’intelligenza artificiale, che non ha alcuna concezione di verità e continua a inventare di sana pianta dati fattuali, come i recapiti aziendali.

Immaginate di avere un’urgenza idraulica. L’acqua sale, il panico pure.

Chiedete al vostro assistente AI di fiducia, quello integrato nel browser che ormai sa di voi più di vostra madre, di trovarvi un idraulico in zona. L’IA, con la sicurezza di un venditore di auto usate, vi fornisce un nome e un numero. Chiamate.

Risponde una pizzeria.

O peggio, un privato cittadino che non sa distinguere una chiave inglese da un mestolo e che ora si ritrova il telefono intasato da sconosciuti disperati.

Non è un errore di battitura, è una caratteristica strutturale.

Siamo nel 2026 e, nonostante le promesse messianiche delle Big Tech sulla “superintelligenza”, i modelli linguistici continuano a inventare di sana pianta dati fattuali, inclusi i recapiti aziendali. La chiamano “allucinazione”, un termine quasi poetico per descrivere quello che, in un contesto legale o contrattuale, chiameremmo frode o incompetenza.

Ma dietro questi errori grossolani si nasconde un meccanismo economico ben più inquietante, dove la vostra privacy e la veridicità delle informazioni sono considerate danni collaterali accettabili nella corsa all’oro dell’IA.

Il problema non è che la macchina “sbaglia”. Il problema è che la macchina non ha alcuna concezione di “verità”.

Funziona su base probabilistica: indovina quale parola suona meglio dopo la precedente. E se la sequenza di numeri più probabile corrisponde al telefono di una sfortunata signora di Voghera anziché all’azienda che cercate, l’IA non si fa scrupoli.

Il miraggio della precisione e il costo della verità

Le aziende tecnologiche ci hanno venduto l’idea che l’intelligenza artificiale generativa, supportata dai sistemi RAG (Retrieval-Augmented Generation), avrebbe risolto il problema delle falsità.

Il concetto è semplice: l’IA non dovrebbe inventare, ma “recuperare” informazioni da fonti attendibili e riassumerle.

Sulla carta funziona. Nella realtà, i conflitti di interesse e i limiti tecnici trasformano questa promessa in una barzelletta costosa.

Un recente esperimento ha messo a nudo questa fragilità, dimostrando come i modelli di intelligenza artificiale stiano generando numeri di telefono aziendali inesistenti o errati con una frequenza allarmante. Non stiamo parlando di domande filosofiche sul senso della vita, ma di dati strutturati di base.

Se un sistema non riesce a copiare correttamente una stringa di dieci cifre, come possiamo affidargli la sintesi di cartelle cliniche o dati finanziari sensibili?

La risposta tecnica, spesso usata come scudo, è che questi sistemi cercano “similarità” e pattern, non fatti. Ma c’è una sfumatura che i comunicati stampa evitano accuratamente. Patrick Stox, esperto SEO che ha analizzato a fondo il fenomeno, spiega la logica perversa dietro questi errori:

Penso che i sistemi RAG abbiano meno probabilità di avere allucinazioni e di solito siano in qualche modo fondati sul contenuto recuperato. Non per dire che non possano avere allucinazioni, ma è meno probabile rispetto a quando… se sta facendo una ricerca sul web, è meno probabile che abbia allucinazioni rispetto a se l’informazione provenisse solo dai dati di addestramento.

— Patrick Stox, Product Advisor presso Ahrefs

Notate l’uso ripetuto di “meno probabile”. Nel mondo della protezione dati e del GDPR, “meno probabile” non è una base legale sufficiente.

Quando un’IA genera un numero falso che appartiene a una persona reale, si configura potenzialmente un trattamento illecito di dati personali. Chi è il responsabile? L’azienda che ha creato il modello? Il sito web da cui l’IA ha “raschiato” male i dati? O l’utente che ha fatto la domanda?

Nel vuoto normativo, le Big Tech navigano a vista, scaricando, come da tradizione, la responsabilità sull’utente finale attraverso termini di servizio che nessuno legge. Ma se l’accuratezza è un optional, il modello di business sottostante è invece solidissimo e spietato.

Il furto del traffico e l’economia del “zero Click”

Mentre noi ridiamo (o piangiamo) per i numeri sbagliati, le piattaforme stanno portando a termine una manovra a tenaglia sull’ecosistema informativo. L’obiettivo non è fornirvi la risposta corretta, ma impedirvi di lasciare il loro “giardino recintato”.

Se l’IA vi dà la risposta direttamente nella pagina dei risultati (anche se sbagliata), voi non cliccate sul sito della fonte originale.

Il fenomeno è devastante per chi produce contenuti reali. Già due anni fa, il 60% delle ricerche su Google si concludeva senza alcun clic verso siti esterni, una tendenza che l’integrazione massiccia dell’IA ha esacerbato.

Le aziende editoriali e i piccoli business forniscono il carburante (i dati) per addestrare i modelli che poi rubano loro i visitatori. È un cannibalismo digitale perfetto: Google e OpenAI usano il vostro lavoro per rendere inutile la vostra esistenza online.

E qui emerge il paradosso della privacy.

Per “migliorare” questi risultati e ridurre le allucinazioni, le Big Tech chiedono ancora più dati. Vogliono accesso in tempo reale ai vostri database, alle vostre email, ai vostri documenti aziendali. La scusa è sempre l’efficienza: “Dateci tutto, così non sbaglieremo il numero di telefono”.

È un ricatto implicito: cedete la vostra sovranità informativa e la privacy dei vostri clienti, o sarete condannati all’invisibilità o, peggio, alla rappresentazione errata da parte di un algoritmo ubriaco.

Tuttavia, c’è un dato che fa gola ai direttori marketing e che rischia di farci accettare questo patto col diavolo senza troppe storie.

La gabbia dorata della conversione

Sembra controintuitivo: il traffico verso i siti web crolla, i rischi di disinformazione aumentano, eppure le aziende stanno iniziando a vedere l’IA non come un nemico, ma come un “filtro” elitario.

Perché? Perché chi arriva da una ricerca AI sembra essere incredibilmente propenso a spendere.

Le analisi più recenti suggeriscono che i visitatori provenienti dalla ricerca AI convertono 23 volte più spesso rispetto al traffico organico tradizionale, trasformando un flusso di utenti ridotto in una miniera d’oro.

Questo crea un incentivo perverso. Le aziende smetteranno di preoccuparsi della visibilità pubblica e democratica del web per concentrarsi esclusivamente sull’ottimizzazione per questi “motori di risposta” (Answer Engine Optimization – AEO).

Il risultato è un web a due velocità.

Da una parte, l’utente comune che riceve risposte pre-masticate, spesso imprecise e generate per massimizzare la permanenza sulla piattaforma. Dall’altra, un sistema opaco dove le aziende pagano (o cedono dati) per assicurarsi che l’IA raccomandi loro e non il concorrente.

La privacy diventa merce di scambio: per essere “visti” dall’IA e intercettare quel traffico ad alta conversione, dovrete nutrire la bestia con dettagli sempre più intimi sui vostri prodotti e clienti.

Siamo di fronte a una trasformazione silenziosa del diritto all’informazione. Se l’IA decide quali numeri di telefono sono “veri” e quali aziende meritano di essere menzionate in base a logiche di “probabilità” statistica, chi controlla il controllore?

Il Regolamento sull’IA europeo (AI Act) pone dei paletti sulla trasparenza, ma come si fa a imporre la trasparenza a un modello che, per sua stessa ammissione tecnica, “allucina” perché è nella sua natura probabilistica farlo?

Stiamo delegando la veridicità dei nostri contatti e della nostra identità digitale a sistemi che, nel migliore dei casi, tirano a indovinare con grande sicurezza.

La prossima volta che cercate un numero e vi risponde una voce che non c’entra nulla, ricordatevi: non è un bug, è il prezzo che stiamo pagando per aver creduto che la comodità valesse più della verifica.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie