L’incubo del marketing AI: quando l’empatia artificiale diventa stalking digitale
L’Intelligenza Artificiale Generativa si trasforma da assistente utile a stalker digitale, inondando gli utenti di messaggi iper-personalizzati e sollevando questioni etiche e legali
Avete presente quella sensazione di vago disagio quando un vecchio compagno di scuola, che non sentite da un decennio, vi scrive all’improvviso con un tono eccessivamente confidenziale solo per vendervi un’assicurazione?
Moltiplicate quella sensazione per cinquanta volte al giorno.
Benvenuti nel gennaio 2026, l’era in cui l’Intelligenza Artificiale Generativa ha smesso di essere una novità scintillante per trasformarsi, nelle mani sbagliate, nel più insistente e psicotico degli stalker digitali.
Siamo onesti: amiamo la tecnologia quando ci semplifica la vita. Quando ChatGPT è esploso nel 2022, abbiamo sognato assistenti virtuali capaci di anticipare i nostri bisogni. Quattro anni dopo, la realtà è leggermente diversa.
Le nostre caselle di posta e le nostre app di messaggistica sono inondate da comunicazioni che sembrano scritte da un essere umano premuroso, ma che in realtà sono generate da algoritmi instancabili addestrati per simulare empatia su scala industriale. Non è più solo spam; è spam emotivo, personalizzato e, francamente, estenuante.
Il problema non è lo strumento, ma l’applicazione pigra di una tecnologia potentissima.
L’industrializzazione della finta empatia
Il marketing digitale ha sempre cercato di personalizzare l’esperienza utente. Nel 2010, inserire il nome “Marco” nell’oggetto di una mail era considerato l’apice della sofisticazione.
Oggi, i Large Language Models (LLM) analizzano la nostra cronologia acquisti, i nostri tempi di lettura e persino le nostre pause di scorrimento per generare messaggi che tentano di instaurare una connessione profonda. Il risultato, però, cade spesso nella cosiddetta “Uncanny Valley” testuale: messaggi troppo intimi per essere veri, ma abbastanza precisi da risultare inquietanti.
Recentemente, Ginny Urquhart-Stewart ha descritto la crescente frustrazione causata dal marketing guidato dall’AI, evidenziando come questa “finta amicizia” stia saturando la nostra attenzione cognitiva. Non si tratta solo di ricevere un’offerta per un paio di scarpe; si tratta di ricevere una mail che dice: “So che la festa della mamma può essere un momento difficile, ecco uno sconto per tirarti su”.
Se lo scrive un amico, è toccante.
Se lo scrive un bot basato su un acquisto di fiori del 2023, è distopico.
La scrittrice ha catturato perfettamente questo malessere crescente:
Il marketing basato sull’IA mi sta portando alla disperazione.
— Ginny Urquhart-Stewart, Autrice per The Spectator
Le aziende stanno usando l’AI per abbattere i costi di produzione dei contenuti a zero, inondando i canali di comunicazione con una frequenza che nessun team umano potrebbe sostenere. È la classica mentalità della “forza bruta”: se invio un milione di messaggi iper-empatici a costo quasi nullo, qualcuno abboccherà.
Ma il costo nascosto è l’erosione della fiducia.
Quando ogni interazione sembra un copione recitato da una macchina, l’utente smette di ascoltare anche quando il messaggio è genuinamente utile.
Eppure, mentre i marketer premono l’acceleratore, i legislatori stanno costruendo dossi sempre più alti.
Il muro della privacy e la risposta dei regolatori
Se da un lato abbiamo l’entusiasmo sfrenato dei dipartimenti marketing, dall’altro abbiamo la fredda mannaia della regolamentazione. Il 2026 si sta rivelando l’anno della resa dei conti per l’uso disinvolto dei dati personali nell’addestramento e nell’utilizzo dei sistemi AI. Non possiamo ignorare che l’infrastruttura legale si sta muovendo per arginare proprio quegli eccessi che oggi ci infastidiscono.
In Europa, l’AI Act ha già stabilito standard elevati, ma è oltreoceano che vediamo movimenti interessanti che potrebbero influenzare il mercato globale. Ad esempio, la legislatura della California ha imposto nuovi requisiti di sicurezza e trasparenza per i chatbot, obbligando le aziende a rivelare quando un utente sta interagendo con un’intelligenza artificiale.
Sembra un dettaglio tecnico, ma cambia radicalmente la percezione: sapere che quella “empatia” è sintetica rompe l’incantesimo manipolativo su cui molte campagne attuali si basano.
La tensione è palpabile. Con l’eliminazione definitiva dei cookie di terze parti, completata proprio quest’anno, le aziende sono disperate per ottenere dati di prima parte (quelli che noi cediamo volontariamente). L’uso dell’AI per “estrarre” queste informazioni attraverso conversazioni simulate è la nuova frontiera.
Tuttavia, le autorità di protezione dei dati, dal Brasile all’Unione Europea, stanno tracciando linee rosse sull’uso dei dati personali per l’addestramento dei modelli senza un consenso esplicito e granulare.
Questo braccio di ferro sta creando un paradosso: la tecnologia per perseguitarci è più potente che mai, ma le armi legali per difenderci si stanno affilando.
E le aziende che ignorano questo cambiamento rischiano grosso.
Quando l’assistente diventa uno stalker
L’aspetto più critico di questa evoluzione non è tanto la privacy in senso astratto, quanto l’impatto psicologico quotidiano. L’AI nel marketing sta fallendo nel comprendere il contesto, che è la vera essenza dell’intelligenza. Un sistema può sapere cosa hai comprato, ma raramente capisce perché.
Immaginate di comprare un libro sul lutto. Un algoritmo insensibile potrebbe iniziare a bombardarvi di “prodotti correlati” o messaggi dal tono pietoso per mesi, riaprendo ferite solo per vendere un servizio.
Questa “schizofrenia algoritmica” — un momento allegra e venditrice, il momento dopo cupa e intima — è ciò che rende l’esperienza utente così sgradevole.
La corsa all’oro dei dati sta portando a errori tattici macroscopici. Gli esperti prevedono che la governance dell’AI metterà a dura prova i prodotti di marketing scalabili, suggerendo che le tattiche invasive potrebbero presto diventare un passivo economico, non solo reputazionale.
Se un brand viene associato a una sensazione di invadenza “creepy”, il danno al marchio è incalcolabile e spesso irreversibile.
Siamo di fronte a una tecnologia che ha il potenziale di essere un assistente straordinario, un curatore perfetto dei nostri interessi. Invece, per ora, viene utilizzata come un megafono instancabile che ci urla nell’orecchio fingendo di sussurrare.
L’ottimismo tecnologico ci impone di credere che questa sia solo una fase di assestamento, un’adolescenza turbolenta dell’AI applicata al commercio. Le aziende più intelligenti capiranno presto che “personalizzazione” significa rispettare i confini, non abbatterli con un ariete digitale.
La domanda che dobbiamo porci, mentre cancelliamo l’ennesima mail che finge di essere la nostra migliore amica, non è se l’AI possa vendere meglio degli umani, ma se siamo disposti ad accettare un futuro in cui l’intimità è solo un altro parametro ottimizzabile in un database.
La tecnologia deve servirci, non manipolarci con un sorriso sintetico.
Siamo sicuri che le aziende abbiano capito la differenza?