Agentic Commerce: Visa rilascerà i passaporti per i bot?

Agentic Commerce: Visa rilascerà i passaporti per i bot?

L’avvento dell'”Agentic Commerce” promette di automatizzare i pagamenti, ma solleva interrogativi sul controllo dei dati e sull’accesso al mercato.

Se c’è una cosa che abbiamo imparato in questi primi giorni del 2026, è che la promessa della tecnologia di semplificarci la vita spesso nasconde una clausola scritta in piccolo: per risolvere i problemi che la tecnologia stessa crea, serve altra tecnologia.

E, solitamente, è una tecnologia proprietaria, opaca e molto costosa.

Il settore dei pagamenti digitali non fa eccezione.

Mentre ci stiamo ancora abituando all’idea che un software possa scrivere poesie (mediocri) o generare video (inquietanti), le grandi compagnie di carte di credito hanno già deciso che il prossimo passo non sarà solo aiutarci a pagare, ma pagare al posto nostro.

Il termine tecnico è “Agentic Commerce”, un’espressione che sentirete ripetere fino alla nausea nei prossimi mesi. L’idea è seducente: delegare a un assistente virtuale — un “agente AI” — la noiosa pratica di cercare il prezzo migliore, inserire i dati della carta e completare l’acquisto.

Ma dietro la facciata della comodità, si sta consumando una battaglia silenziosa per il controllo dell’infrastruttura finanziaria del web.

Visa, gigante indiscusso del settore, ha deciso di non restare a guardare mentre bot e algoritmi prendono d’assalto i negozi online. La strategia è chiara: se il futuro è un mercato gestito da robot, Visa vuole essere l’ente che rilascia i passaporti.

Per capire la portata della scommessa, bisogna guardare ai numeri, che nel mondo finanziario raccontano sempre la storia meglio dei comunicati stampa. Già due anni fa, Visa ha dichiarato di aver bloccato transazioni fraudolente per oltre 40 miliardi di dollari nel 2024 grazie all’intelligenza artificiale, una cifra che supera il PIL di intere nazioni.

Questo dato non è solo una medaglia al valore appuntata sul petto della sicurezza informatica; è la giustificazione perfetta per quello che sta accadendo ora.

La narrazione è semplice: il web è un luogo pericoloso, pieno di “deepfake comportamentali” e truffatori algoritmici.

L’unica salvezza? Affidarsi a chi ha i dati per distinguere i buoni dai cattivi.

Il passaporto digitale per i vostri maggiordomi virtuali

Qui entra in gioco il vero nodo della questione: la distinzione tra un agente AI “legittimo” e un bot malevolo. Fino a poco tempo fa, questo era un problema dei rivenditori, costretti a implementare CAPTCHA sempre più astrusi per dimostrare che l’acquirente fosse umano.

Ora che l’acquirente non è più necessariamente umano, i vecchi metodi non funzionano.

La soluzione proposta dai colossi dei pagamenti non è eliminare i bot, ma certificarli.

Alla fine dello scorso anno, la società ha introdotto il Trusted Agent Protocol insieme a oltre 10 partner tecnologici proprio per standardizzare questi controlli.

In termini pratici, si tratta di un sistema di accreditamento. Se il vostro assistente virtuale vuole comprare i biglietti del treno o fare la spesa, deve mostrare un “documento” digitale che Visa riconosce.

L’AI ci consente di analizzare grandi volumi di dati in tempo reale, individuando schemi sospetti prima ancora che il cliente se ne accorga. È una tecnologia che migliora la sicurezza, ma anche l’esperienza dell’utente, perché permette pagamenti sempre più rapidi e senza attriti.

— Larregle, Executive presso Visa Italia

L’espressione “senza attriti” dovrebbe far scattare un campanello d’allarme in chiunque si occupi di privacy o di psicologia del consumo. L’attrito, nel momento del pagamento, è quel prezioso secondo di lucidità in cui il cervello umano realizza che sta spendendo denaro reale. Rimuoverlo del tutto, delegando l’azione a un agente AI “di fiducia”, è il sogno di ogni dipartimento marketing e l’incubo di ogni consulente finanziario.

Ma c’è un aspetto ancora più critico: chi decide chi è “trusted”?

Se Visa diventa l’arbitro che stabilisce quali intelligenze artificiali hanno diritto di accesso al sistema dei pagamenti e quali no, stiamo di fatto consegnando le chiavi del commercio elettronico a un attore privato. Non si tratta più solo di processare transazioni, ma di governare l’accesso al mercato.

Un piccolo sviluppatore di AI che crea un assistente per lo shopping innovativo, ma che non rientra nei parametri o nelle partnership delle Big Tech, potrebbe trovarsi tagliato fuori, incapace di operare perché il suo agente non ha il “bollino blu” della sicurezza.

L’automazione del portafoglio (e del consenso)

L’altro lato della medaglia è la raccolta dati. Per distinguere un agente AI legittimo da uno fraudolento, il sistema deve “conoscere” l’agente e, per estensione, il suo proprietario umano.

Questo implica un livello di profilazione che farebbe impallidire i cookies di vecchia generazione. Non si tratta più di sapere quali siti visitate, ma di analizzare come si comporta il vostro alter ego digitale.

Non è un caso che il traffico web generato dalle intelligenze artificiali sia cresciuto del 1200% nel 2024, creando un rumore di fondo che rende indistinguibili i clienti reali dai bot. In questo caos, le aziende offrono ordine in cambio di dati.

La piattaforma Visa Intelligent Commerce, ad esempio, non serve solo a proteggere, ma a personalizzare. E “personalizzare”, nel gergo della Silicon Valley, è sinonimo di “prevedere cosa comprerai prima che tu lo sappia”.

Mentre milioni di acquirenti si rivolgono al web per effettuare gli acquisti di Natale, Visa sta reagendo alle minacce online con strumenti di intelligenza artificiale che aiutano a identificare le truffe prima che raggiungano le persone, grazie alla collaborazione con banche, rivenditori e piattaforme.

— Stefano M. Stoppani, Country Manager Visa Italia

La retorica della protezione è inattaccabile: nessuno vuole essere truffato. I dati ci dicono che chi non sa distinguere un contenuto generato dall’AI da uno reale ha un rischio cinque volte maggiore di cadere in una frode. Tuttavia, accettare che la soluzione sia una sorveglianza algoritmica preventiva su ogni transazione pone seri interrogativi rispetto al GDPR e alla normativa europea sull’AI.

Se il mio agente AI agisce in mio nome, i suoi dati sono i miei dati?

Se viene bloccato da un algoritmo opaco perché ritenuto “sospetto”, a chi faccio ricorso? Al servizio clienti di un’intelligenza artificiale?

Chi sorveglia il sorvegliante?

C’è poi l’aspetto ironico della faccenda. Le stesse aziende che hanno beneficiato enormemente dalla digitalizzazione spinta e dalla smaterializzazione del denaro ora ci vendono gli antidoti agli effetti collaterali di quel processo.

L’economia degli agenti AI è, sulla carta, una rivoluzione dell’efficienza. Nella pratica, rischia di diventare un sistema a circuito chiuso dove pochi grandi attori controllano sia l’infrastruttura di pagamento sia i protocolli di sicurezza che la regolano.

Siamo di fronte a un modello di business che si autoalimenta: l’aumento della complessità tecnologica (agenti AI, deepfake, botnet) rende obsoleti i vecchi sistemi di sicurezza, costringendo banche e consumatori ad adottare nuovi standard proprietari, che a loro volta richiedono più dati e più potenza di calcolo per funzionare.

È la tempesta perfetta per consolidare posizioni dominanti.

Mentre ci preoccupiamo se l’AI ci ruberà il lavoro, forse dovremmo iniziare a preoccuparci di come ci sta “aiutando” a spendere i nostri soldi. La domanda da porsi non è se queste tecnologie funzionino — i 40 miliardi di frodi bloccate suggeriscono di sì — ma quale sia il prezzo invisibile di questa sicurezza.

Stiamo costruendo un’autostrada digitale dove possono viaggiare solo le macchine approvate dal casellante, e il casellante ha appena deciso di automatizzare anche la riscossione del pedaggio.

Resta da capire se, in questo futuro di agenti “fidati” e commercio senza attriti, ci sarà ancora spazio per l’unica variabile che l’algoritmo considera un bug: la decisione umana di non comprare nulla.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie