L’Intelligenza Artificiale sta Rimpiazzando gli Acquisti B2B?
L’adozione dell’IA generativa negli acquisti B2B porta con sé rischi di parzialità, furto di dati e un mercato controllato da pochi gatekeeper tecnologici
C’è un silenzio assordante nei dipartimenti acquisti di mezzo mondo, ed è il suono dei clic che non avvengono più.
Per vent’anni, la liturgia è stata sempre la stessa: si apriva il browser, si digitavano parole chiave su Google, si aprivano dieci schede diverse, si comparavano le offerte. Era un processo faticoso, umano, imperfetto, ma trasparente.
Oggi, all’alba del 2026, quel rituale è stato sostituito da una conversazione privata con un oracolo digitale che promette di sapere tutto, ma non spiega mai perché ti sta suggerendo proprio quel fornitore.
L’entusiasmo per l’efficienza ha, come sempre, oscurato la domanda fondamentale: chi controlla il controllore?
La rapida adozione dell’intelligenza artificiale generativa nei processi di acquisto B2B (Business-to-Business) non è semplicemente un aggiornamento tecnologico; è una cessione di sovranità decisionale. Se prima ci fidavamo della “saggezza della folla” tramite i link più cliccati, ora ci affidiamo alla scatola nera di un algoritmo proprietario che decide chi vive e chi muore nel mercato, basandosi su criteri opachi e, spesso, su dati che le stesse aziende gli hanno fornito gratuitamente.
Non è un’ipotesi distopica, ma la fotografia scattata dai dati più recenti.
Secondo un report diffuso alla fine dell’anno appena trascorso, il 66% degli acquirenti B2B utilizza l’intelligenza artificiale generativa quanto o più della ricerca tradizionale per selezionare i propri fornitori. Nel settore tecnologico, questa percentuale schizza addirittura all’80%.
Siamo di fronte a un cambio di paradigma che fa impallidire qualsiasi precedente rivoluzione digitale: la barra di ricerca sta diventando un reperto archeologico, sostituita da un prompt che digerisce la complessità del mercato e rigurgita una risposta univoca.
Comodo? Certamente.
Pericoloso? Molto più di quanto i dipartimenti IT vogliano ammettere.
L’oracolo digitale non è imparziale
Il problema centrale non è l’uso della tecnologia, ma l’illusione di obiettività che essa porta con sé.

Quando un responsabile acquisti chiede a ChatGPT o a Claude di “trovare il miglior software CRM per una logistica di medie dimensioni”, la risposta non è frutto di un’analisi di mercato neutrale. È il risultato probabilistico di un modello linguistico addestrato su dataset che premiano la presenza massiccia online, non necessariamente la qualità.
Le aziende stanno scoprendo a loro spese che l’ottimizzazione per i motori di ricerca (SEO) è morta; benvenuti nell’era dell’ottimizzazione per l’IA.
Ma mentre la SEO aveva regole vagamente intuibili, influenzare un LLM (Large Language Model) è un’arte oscura riservata a chi ha budget enormi. Le piccole realtà innovative, quelle che non hanno inondato il web di white paper e comunicati stampa negli ultimi cinque anni, rischiano di diventare invisibili.
L’IA non “scopre” nulla; l’IA ricorda ciò che ha letto più spesso.
E mentre le aziende corrono a riscrivere i loro siti web per piacere ai robot, i compratori si stanno impigrendo.
Una proiezione preoccupante suggerisce che l’80% delle vendite B2B avverrebbe interamente online entro quest’anno, riducendo drasticamente l’interazione umana.
Si parla di decisioni “zero-click”: il software ti dice cosa comprare, e tu esegui. Ma se l’algoritmo ha le “allucinazioni” – e sappiamo che le ha – chi paga il conto di un investimento sbagliato da milioni di euro?
Non certo OpenAI o Google.
Il grande furto dei dati aziendali
C’è poi l’elefante nella stanza, quello che i legali delle Big Tech cercano goffamente di nascondere dietro termini di servizio lunghi come l’elenco telefonico: la privacy.
Ogni volta che un manager inserisce in un prompt i requisiti specifici della propria azienda per cercare un fornitore, sta regalando informazioni strategiche al modello.
Immaginate la scena: un’azienda farmaceutica descrive nei minimi dettagli le sue necessità per un nuovo impianto di produzione segreto, chiedendo all’IA chi può costruirlo.
Quei dati, in molti casi, vengono assorbiti, elaborati e potenzialmente utilizzati per addestrare le versioni successive del modello. È una violazione della riservatezza su scala industriale, spesso in palese contrasto con i principi di minimizzazione dei dati sanciti dal GDPR.
Le avvisaglie c’erano tutte.
Già in passato analisi di settore avevano evidenziato i rischi associati all’output dell’IA generativa e il trattamento dei dati aziendali, mettendo in guardia acquirenti e venditori sulla necessità di scrutinare come le informazioni vengono gestite.
Eppure, la comodità vince sulla cautela. Stiamo barattando i nostri segreti industriali per risparmiare qualche ora di ricerca manuale.
Non sorprende quindi che le aziende fornitrici stiano cercando di correre ai ripari, trasformando i propri venditori da semplici “spiegatori di prodotto” a consulenti strategici, gli unici in grado di aggiungere quel valore umano che l’IA non può (ancora) replicare. Come sottolineato da alcuni player del settore:
I venditori devono dimostrare competenza e trasparenza per contrastare la velocità di valutazione dell’acquirente guidata dall’IA.
— Analisi di settore, Seismic
La trappola della visibilità invisibile
La questione economica è altrettanto insidiosa.
Se l’interfaccia tra il mio portafoglio e il mercato diventa un chatbot gestito da una delle tre o quattro Big Tech che dominano il pianeta, il conflitto di interessi è strutturale.
Cosa impedisce a un modello di favorire i partner commerciali della sua casa madre? O di escludere i concorrenti?
La trasparenza algoritmica, tanto invocata dall’AI Act europeo, si scontra con la realtà tecnica delle reti neurali: nemmeno gli ingegneri sanno esattamente perché il modello ha scelto la risposta A invece della B.
In questo scenario, il mercato B2B rischia di trasformarsi in un “pay-to-play” ancora più feroce di quello pubblicitario. Se non paghi per essere nel “corpo” della conoscenza dell’IA, non esisti.
Le dichiarazioni delle aziende che sviluppano piattaforme di risposta automatizzata cercano di rassicurare, sostenendo che l’IA serve solo per la scrematura iniziale.
L’IA determina le rose dei candidati, ma le richieste di proposta (RFP) testano la credibilità; le aziende devono adattarsi per vincere.
— Responsive, Rapporto sulla Buyer Intelligence
Tuttavia, sappiamo bene che la pigrizia cognitiva umana tende a trasformare la “rosa dei candidati” nella decisione finale. Se l’IA esclude un fornitore eccellente ma poco “digitale” dalla lista iniziale, quel fornitore ha perso la partita prima ancora di scendere in campo.
Il risultato finale di questa transizione non è un mercato più libero, ma un imbuto sempre più stretto, controllato da gatekeeper tecnologici che non hanno alcun interesse a tutelare la privacy o la concorrenza leale.
Abbiamo accettato di farci consigliare i film da Netflix e la musica da Spotify; ora stiamo lasciando che siano gli algoritmi a decidere le infrastrutture critiche delle nostre aziende.
Resta da chiedersi: quando l’IA commetterà l’errore fatale, ci sarà ancora qualcuno capace di fare una ricerca manuale per accorgersene?