L'intelligenza artificiale è diventata una vetrina pubblicitaria? Il futuro della persuasione digitale

L’intelligenza artificiale è diventata una vetrina pubblicitaria? Il futuro della persuasione digitale

Dall’illusione di un’AI filantropica alla realtà di un’ingegneria della persuasione in tempo reale, il furto della nostra autonomia decisionale è già in atto.

C’è stato un momento, all’incirca tre anni fa, in cui abbiamo creduto collettivamente a una favola tecnologica piuttosto ingenua: che l’intelligenza artificiale generativa sarebbe stata un oracolo benevolo, un assistente gratuito pronto a risolvere i nostri dubbi esistenziali senza chiedere nulla in cambio.

Oggi, in questo inizio di 2026, quella luna di miele è definitivamente finita.

L’illusione che le Big Tech potessero offrire potenza di calcolo illimitata per pura filantropia si è scontrata con la realtà dei bilanci, e la soluzione trovata è vecchia quanto il web stesso: vendere la nostra attenzione al miglior offerente.

Non è una sorpresa per chi osserva il settore con un minimo di disincanto, ma la velocità con cui i chatbot si sono trasformati in vetrine pubblicitarie “conversazionali” dovrebbe far scattare più di un campanello d’allarme nelle autorità garanti della privacy europee.

Se il vecchio motore di ricerca si limitava a intuire i nostri desideri basandosi su qualche parola chiave, i nuovi assistenti AI fanno qualcosa di molto più invasivo: entrano nel merito del ragionamento, ne comprendono le sfumature emotive e, proprio lì, inseriscono il messaggio sponsorizzato.

Non è più solo pubblicità; è ingegneria della persuasione in tempo reale.

E mentre noi ci preoccupiamo di capire se l’AI ci ruberà il lavoro, il vero furto sta avvenendo sotto i nostri occhi: quello della nostra autonomia decisionale.

Il costo nascosto della conversazione gratuita

Per comprendere la magnitudo del fenomeno, bisogna guardare a chi detiene le chiavi del regno. OpenAI, che ha iniziato come laboratorio di ricerca senza scopo di lucro, oggi gestisce una piattaforma con 800 milioni di utenti attivi settimanali.

Mantenere un’infrastruttura del genere ha costi operativi che farebbero impallidire una piccola nazione. La narrazione dell’azienda si è spostata rapidamente dalla “sicurezza dell’AI” alla “sostenibilità del modello di business”.

E in Silicon Valley, sostenibilità è sinonimo di advertising.

Il problema è strutturale. Fino a ieri, il patto con piattaforme come Google era chiaro, seppur problematico: noi cercavamo “pizzeria vicino a me”, loro ci mostravano le pizzerie che avevano pagato per apparire in cima. Era un sistema rozzo, basato su intenti espliciti.

Con l’AI, il paradigma cambia.

L’utente non cerca solo prodotti; chiede consigli su come gestire una rottura sentimentale, su come ristrutturare il debito o su quale carriera intraprendere. Inserire la pubblicità in questo flusso non richiede solo “dati”, richiede un’intimità digitale che nessun regolamento, nemmeno il GDPR, aveva previsto con questa granularità.

Siamo passati dalla profilazione comportamentale (cosa fai) alla profilazione cognitiva (come pensi).

E mentre l’utente crede di avere una conversazione privata con un’entità neutra, dall’altra parte c’è un algoritmo che calcola il momento esatto in cui le sue difese critiche sono abbassate per suggerire un acquisto. Ma se pensate che questo sia il massimo del rischio, non avete ancora considerato la reazione del gigante che, fino a poco tempo fa, dormiva sonni tranquilli sul suo monopolio.

La difesa del fortino da 200 miliardi

Google si trova in una posizione scomoda, stretta tra la necessità di innovare e il terrore di cannibalizzare la sua gallina dalle uova d’oro. I numeri sono impietosi e spiegano ogni singola mossa di Mountain View degli ultimi mesi: i dati confermano che Google dipende per l’80% del suo fatturato totale dalle entrate pubblicitarie, pari a circa 200 miliardi di dollari.

Non possono permettersi di perdere questo flusso di cassa. La minaccia portata da Microsoft, il cui Copilot ha eroso una quota di mercato del 14%, non è esistenziale per la tecnologia in sé, ma per il modello di distribuzione delle ads.

Se le persone smettono di “googlare” e iniziano a “chiedere a ChatGPT”, i link blu sponsorizzati di Google perdono valore. La risposta di Google non è stata ripensare il modello, ma saturare le sue risposte AI con ancora più spazi commerciali, rendendo la distinzione tra informazione organica e contenuto pagato sempre più labile.

Qui si annida il conflitto di interessi più palese. Un’AI progettata per massimizzare i clic pubblicitari non può, per definizione, essere un assistente obiettivo.

Se chiedo “qual è il miglior mutuo per la mia situazione”, l’AI mi risponderà con la soluzione matematicamente migliore per le mie finanze o con quella della banca che ha investito di più nell’asta pubblicitaria del momento?

La risposta, cinicamente, la conosciamo già.

E il Regolamento europeo sull’Intelligenza Artificiale (AI Act), pur con tutte le sue buone intenzioni sulla trasparenza, fatica a tenere il passo con sistemi che generano risposte diverse ogni millisecondo, rendendo quasi impossibile un audit esterno efficace.

Tutto questo sta accadendo mentre il mercato si prepara a un’esplosione di investimenti che trasformerà internet in un gigantesco centro commerciale algoritmico, dove la merce di scambio siamo noi.

L’escalation della manipolazione

Le proiezioni economiche sono il miglior indicatore di dove sta andando la tecnologia, molto più dei comunicati stampa sulla “mission” aziendale. Secondo le stime di EMarketer, la spesa pubblicitaria nella ricerca guidata dall’AI negli Stati Uniti passerà da 1,1 miliardi di dollari nel 2025 a una cifra mostruosa di 26 miliardi entro il 2029.

Questo aumento esponenziale non si spiega solo con l’adozione della tecnologia da parte degli utenti. Si spiega con l’efficacia predatoria del mezzo. La pubblicità nei chatbot converte meglio perché è camuffata da consiglio.

È il trionfo del native advertising portato alle sue estreme conseguenze: l’annuncio non interrompe l’esperienza, diventa l’esperienza.

Per l’utente europeo, protetto sulla carta dal GDPR, la situazione è paradossale. Le aziende sostengono che l’uso dei dati per addestrare questi modelli e personalizzare le risposte rientri nel “legittimo interesse” o sia coperto da consensi informati cliccati distrattamente anni fa.

Ma c’è una differenza sostanziale tra acconsentire a un cookie e permettere a un’azienda di scansionare una conversazione in tempo reale per dedurre le mie vulnerabilità psicologiche e vendermi un prodotto.

La profilazione qui diventa così profonda da sfiorare la manipolazione subliminale.

La domanda che dovremmo porci non è se questa tecnologia sia utile, ma a chi giovi davvero la sua attuale architettura. Se l’assistente AI diventa il principale intermediario tra noi e il mondo, chi controlla l’algoritmo controlla la nostra percezione della realtà, filtrata attraverso la lente di chi paga di più.

Siamo disposti ad accettare che il nostro “copilota” digitale sia, in realtà, un agente di commercio sotto copertura?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie