L’inganno dell’AI: da minaccia esistenziale a ‘trucco di magia’ aziendale
Dietro le rassicurazioni sull’IA si nasconde una strategia aziendale che scarica sul lavoratore l’ansia da performance tecnologica, trasformandola in un modello di business basato sulla sorveglianza.
Sembra che siamo arrivati alla fase due della grande abbuffata dell’Intelligenza Artificiale: la gestione dei danni collaterali.
Dopo aver passato gli ultimi tre anni a inondare il mercato con previsioni apocalittiche sulla sostituzione della forza lavoro e a promettere l’automazione totale, le Big Tech si sono accorte di un piccolo, fastidioso problema tecnico: gli esseri umani sono terrorizzati.
E quando gli esseri umani hanno paura, smettono di essere produttivi, bloccano i processi e, soprattutto, minacciano il sacro Graal del Ritorno sull’Investimento (ROI).
È in questo clima, datato 14 gennaio 2026, che figure come Allister Frost, ex dirigente Microsoft trasformatosi in guru della “leadership futura”, emergono con un messaggio rassicurante che suona quasi come un’ammissione di colpa.
La narrazione sta cambiando: non più “l’AI ti sostituirà”, ma “l’AI è solo un trucco di magia, non averne paura”. Un cambio di rotta repentino che puzza di strategia di contenimento più che di epifania filosofica.
Ma dietro queste parole rassicuranti si nasconde una realtà ben più complessa, fatta di sorveglianza sul posto di lavoro e di una nuova forma di sottomissione psicologica alla macchina.
La mossa è intelligente, bisogna ammetterlo: spostare l’attenzione dalla tecnologia alla psicologia del lavoratore.
Ma mentre ci invitano a guardare la mano che agita la bacchetta magica, cosa sta facendo l’altra mano con i nostri dati?
Il trucco di magia (e chi paga il biglietto)
L’ansia da prestazione tecnologica non è un’invenzione dei sindacati, ma un dato di fatto che sta costando caro alle aziende.
Le statistiche sono impietose: secondo il TUC (Trades Union Congress), il 51% degli adulti nel Regno Unito è preoccupato per l’impatto dell’AI sul proprio lavoro, mentre l’Acas riporta che per il 26% dei lavoratori la paura principale è la perdita del posto.
Di fronte a questa paralisi collettiva, un recente articolo su Artificial Intelligence News evidenzia come l’ansia della forza lavoro sia diventata un ostacolo tangibile per il ROI, costringendo le imprese a rivedere le proprie strategie di implementazione.
Ed è qui che entra in scena la retorica del “trucco di magia”. Frost, con la disinvoltura di chi conosce bene le leve del marketing di Redmond, cerca di smontare il mito dell’AI senziente per renderla più digeribile.
No, non è reale. L’IA è un trucco di magia, credo, che le aziende tecnologiche ci stanno giocando. Hanno creato questa cosa che ha comportamenti simili a quelli umani. […] Hanno progettato questa cosa che ti induce a pensare che sia umana.
— Allister Frost, Ex Dirigente Microsoft e Autore
L’ironia è palpabile.
Per anni, le stesse aziende per cui Frost ha lavorato hanno venduto l’AI proprio antropomorfizzandola, dandole nomi umani, voci suadenti e interfacce conversazionali per renderla “amica”. Ora che l’amico fa paura, ci dicono che è tutto finto.
Ma se l’AI è un trucco, il “coniglio” che esce dal cilindro sono i nostri dati personali, macinati da algoritmi opachi che operano spesso ai limiti del GDPR.
Definirla un “trucco” minimizza pericolosamente la realtà tecnica: non è magia, è statistica applicata a una sorveglianza di massa.
Dire ai lavoratori che “non è reale” serve a disarmare la loro diffidenza critica, proprio nel momento in cui dovrebbero chiedersi come e perché i loro input lavorativi vengano usati per addestrare i modelli che un giorno potrebbero renderli obsoleti.
Tuttavia, il vero pericolo non è tanto nell’illusione, quanto nella richiesta di adattamento che ne consegue.
L’ansia come modello di business
Se da un lato si sminuisce la tecnologia definendola un “trucco”, dall’altro si scarica interamente sul lavoratore la responsabilità di adattarsi.
La narrativa è sottile: l’AI non è cattiva, sei tu che devi cambiare approccio. Frost insiste sulla necessità di una “curiosità infantile” e di un cambio di mentalità, suggerendo che l’ansia derivi da una mancanza di flessibilità piuttosto che da una legittima preoccupazione per la propria sussistenza economica e la propria privacy.
L’intelligenza artificiale e tutte quelle altre tecnologie emergenti cambieranno il tuo lavoro, lo cambieranno, semplicemente non sappiamo come […] non è uno scenario apocalittico, non è un motivo per sentirsi depressi, è solo la realtà di vivere nel 21° secolo, è inevitabile.
— Allister Frost, Keynote Speaker e Autore
“Inevitabile”.
Una parola che chiude ogni dibattito etico o normativo. Invece di discutere se sia giusto che un algoritmo decida i flussi di lavoro o valuti le performance (in potenziale violazione dell’Articolo 22 del GDPR sul processo decisionale automatizzato), si accetta il cambiamento come un fenomeno atmosferico.
Frost sostiene che i leader debbano prepararsi a un futuro guidato dall’AI concentrandosi sulla mentalità piuttosto che sui soli strumenti tecnici, spostando il peso dell’integrazione dalle spalle dei dipartimenti IT a quelle delle Risorse Umane.
Il risultato è un paradosso: le aziende investono miliardi in tecnologie per automatizzare, e poi devono investire ancora per “curare” l’ansia che quelle tecnologie provocano, assumendo consulenti per insegnare ai dipendenti a essere “più umani”.
Ma cosa significa essere “più umani” in un contesto aziendale dominato dalle macchine?
Significa spesso occuparsi delle “eccezioni”, ripulire i dati sporchi, gestire le allucinazioni dei modelli linguistici e fornire quella copertura emotiva che il software non può dare.
In breve: diventare i custodi fallibili di un sistema infallibile solo sulla carta.
E mentre ci preoccupiamo di essere resilienti e adattabili, c’è un aspetto ancora più insidioso che viene spacciato come un vantaggio.
La grande distrazione di massa
Il focus sulla “collaborazione uomo-macchina” nasconde un conflitto di interessi strutturale.
Quando Frost e altri esperti incoraggiano a trattare l’AI come un potenziamento delle capacità umane, stanno implicitamente chiedendo ai lavoratori di nutrire la bestia.
Ogni interazione, ogni correzione, ogni prompt inserito nel sistema è lavoro gratuito di addestramento per le versioni successive del modello.
L’approccio human-centric sbandierato oggi rischia di essere il cavallo di Troia per una sorveglianza granulare delle performance.
Se l’AI deve “aiutarci”, deve conoscerci. Deve sapere quanto tempo impieghiamo a scrivere un’email, quali errori facciamo, quando siamo stanchi.
Gli esseri umani notano quei punti di contatto disumani e non ottimali più di ogni altra cosa […] vieni penalizzato come un pazzo quando rendi gli aspetti umani inaccessibili o fuori portata.
— Allister Frost, Keynote Speaker e Autore
Questa affermazione rivela la vera preoccupazione delle aziende: non il benessere del dipendente, ma la customer experience.
L’umano serve perché l’AI, da sola, è “subottimale” e crea attrito con il cliente. Il lavoratore viene ridotto a un’interfaccia biologica necessaria per smussare gli spigoli di un’automazione ancora imperfetta.
L’ansia del lavoratore, quindi, non va curata per etica, ma perché un lavoratore ansioso è una cattiva interfaccia per il cliente finale.
Siamo di fronte a un capolavoro di gaslighting aziendale.
Ci viene detto che l’AI è un trucco innocuo, ma “inevitabile”; che dobbiamo abbracciarla con curiosità, mentre essa registra ogni nostra mossa; che ci renderà più umani, riducendoci a correttori di bozze per algoritmi statistici.
La vera domanda che dovremmo porci, mentre ascoltiamo questi discorsi motivazionali, non è come adattarci all’AI, ma chi sta davvero scrivendo le regole di questo gioco di prestigio.
Se il trucco c’è, è probabile che l’unico a sparire davvero, alla fine dello spettacolo, sia il concetto stesso di privacy lavorativa.