L’automazione aziendale nel 2026: il caso Zenken e i rischi per la privacy
Nel 2026 l’IA generativa è la normalità burocratica, ma l’esternalizzazione cognitiva solleva interrogativi su privacy, sovranità dei dati e dipendenza tecnologica
Se c’è una cosa che il 2025 ci ha insegnato, è che la promessa di un futuro automatizzato non era una semplice fantasia da film di fantascienza, ma un business plan terribilmente concreto.
Siamo a gennaio 2026 e la sbornia collettiva per l’intelligenza artificiale generativa non è passata; anzi, è diventata la nuova normalità burocratica. Ma mentre i comunicati stampa festeggiano “l’aumento della produttività” e i “partner digitali”, chi si occupa di privacy e sovranità dei dati dovrebbe iniziare a sudare freddo.
Prendiamo il caso del Giappone, che spesso anticipa le tendenze tecnologiche globali (nel bene e nel male). Lì, l’adozione aziendale dell’IA non è più una sperimentazione timida, ma una ristrutturazione brutale dei processi lavorativi.
Le aziende non stanno solo “usando” l’IA; stanno letteralmente appaltando la loro capacità cognitiva a server gestiti da terzi, spesso situati oltreoceano.
E i numeri che vengono sbandierati come successi trionfali nascondono, se letti in filigrana, una realtà fatta di dipendenza tecnologica e una progressiva erosione del controllo sui propri asset informativi.
Ma andiamo con ordine e guardiamo cosa succede quando una corporation decide di affidare le chiavi di casa a Sam Altman e soci.
Il miracolo della produttività (o come licenziare i fornitori)
Il caso più recente e rumoroso arriva dalla Zenken Corporation, un gigante dei servizi con sede a Tokyo. La narrazione ufficiale è quella di un successo strepitoso: implementazione totale di ChatGPT Enterprise, dipendenti felici e grafici che puntano verso l’alto.
Ma è analizzando i dettagli che emerge la vera natura di questa “rivoluzione”. Non si tratta solo di scrivere email più velocemente; si tratta di sostituire interi flussi di lavoro umani con processi automatizzati.
L’azienda ha annunciato che l’utilizzo di ChatGPT Enterprise ha permesso di tagliare circa 12.500 ore di lavoro al mese, una cifra che dovrebbe far riflettere chiunque si occupi di risorse umane o di diritti dei lavoratori.
Se risparmi dodicimila ore, significa che prima c’erano persone che lavoravano per quelle dodicimila ore. Dove sono finite?
La risposta è nel risparmio sui costi di outsourcing: 50 milioni di yen (circa 300.000 euro) in meno spesi per consulenti e servizi esterni.
Il presidente di Zenken non usa mezzi termini nel descrivere questo cambiamento epocale:
Secondo un sondaggio interno condotto tre mesi dopo l’introduzione in tutta l’azienda, l’uso di “ChatGPT Enterprise” ha ridotto le ore di lavoro di circa 12.500 ore al mese e la produttività è raddoppiata in media. Inoltre, abbiamo ottenuto risultati notevoli, come una riduzione dei costi di outsourcing esterno di circa 50 milioni di yen per l’intero anno 2024, compreso il periodo di introduzione iniziale, rispetto all’anno precedente.
— Junnosuke Hayashi, Presidente e CEO di Zenken Corporation
È evidente che il “guadagno” di efficienza si traduce in una perdita secca per l’ecosistema dei fornitori esterni. Ma il punto critico non è solo economico.
Per ottenere questi risultati, Zenken ha dovuto riversare una quantità industriale di dati interni nei sistemi di OpenAI. Certo, la versione Enterprise promette che i dati non verranno usati per addestrare i modelli pubblici.
Ma in un’era post-GDPR, dove la definizione di “trasferimento dati” è scivolosa quanto un’anguilla, affidare l’intero know-how aziendale a una scatola nera americana richiede un atto di fede che pochi responsabili della privacy dovrebbero essere disposti a fare.
Eppure, lo fanno tutti.
La sicurezza come cavallo di Troia
Il vero colpo di genio di OpenAI non è stato creare un chatbot intelligente, ma convincere i dipartimenti IT di mezzo mondo che fosse “sicuro”. Fino al 2023, i CIO (Chief Information Officer) bloccavano ChatGPT sui firewall aziendali per paura di leak di proprietà intellettuale.
Poi è arrivata la versione Enterprise, con la promessa di crittografia, SSO (Single Sign-On) e conformità SOC 2, e improvvisamente le dighe si sono rotte.
La strategia è stata quella di trasformare un rischio di sicurezza in una feature di sicurezza. Le aziende, terrorizzate dall’idea che i dipendenti usassero l’IA “di nascosto” (Shadow IT), hanno preferito comprare la versione ufficiale per “controllare” il fenomeno.
Il risultato?
Una dipendenza strutturale. OpenAI ha ormai raggiunto una penetrazione del 92% tra le aziende della lista Fortune 500, creando di fatto un monopolio sull’infrastruttura cognitiva del business occidentale.
E qui entra in gioco l’ironia della situazione. Le aziende come ENEOS Materials, nel settore manifatturiero chimico, citano la sicurezza come motivo principale dell’adozione, mentre di fatto stanno centralizzando le loro informazioni più sensibili in un unico punto di fallimento esterno.
Per massimizzare i nostri risultati aziendali con l’IA, era essenziale garantire un ambiente sicuro per la gestione delle informazioni proprietarie. ChatGPT Enterprise ha soddisfatto i nostri requisiti interni di sicurezza informatica e ha fornito l’accuratezza dell’output che richiedevamo.
— Taku Ichibayashi, Manager, Dipartimento Ricerca e Sviluppo, ENEOS Materials
Notate la sottigliezza: “ha soddisfatto i requisiti interni”. Questo spesso significa che l’azienda ha adattato i propri requisiti alla realtà offerta dal fornitore, non viceversa.
E quando un manager afferma che “ChatGPT è diventato un partner per ciascuno dei nostri dipendenti”, dovremmo chiederci: chi controlla questo partner?
Se domani OpenAI decidesse di cambiare le policy sulla retention dei dati o di alzare i prezzi del 300%, ENEOS avrebbe la forza contrattuale per opporsi? O il “partner” è diventato, di fatto, il padrone dei processi produttivi?
I dati non dormono mai
La questione, come sempre, ruota attorno ai dati. Le metriche di utilizzo che emergono dai report di inizio 2026 sono spaventose per chiunque creda nella minimizzazione del trattamento dati. Non stiamo parlando di qualche domanda sporadica fatta al bot. Il volume di interazioni è esploso, segnalando che l’IA non è più uno strumento accessorio, ma il sistema operativo del lavoro quotidiano.
I report più recenti indicano una crescita di otto volte nel volume settimanale dei messaggi inviati dalle aziende rispetto all’anno precedente.
Questo significa che ogni email, ogni report, ogni analisi di mercato, ogni snippet di codice passa attraverso i server di OpenAI prima di arrivare al destinatario finale. Stiamo assistendo alla più grande esfiltrazione volontaria di dati aziendali della storia, tutto sotto l’egida rassicurante dei contratti “Enterprise”.
C’è poi l’aspetto dell’analisi predittiva e del cosiddetto “reasoning”. L’uso di token per il ragionamento complesso è aumentato di 320 volte. Le aziende non chiedono più all’IA solo di riassumere testi, le chiedono di pensare al posto loro.
E qui il conflitto di interessi è palese: più l’IA diventa brava a “ragionare”, meno i dipendenti umani sono incentivati a sviluppare pensiero critico. Si crea un loop in cui l’azienda paga per addestrare (indirettamente, tramite feedback loop) il modello che renderà obsoleti i suoi stessi dipendenti.
In Europa, il GDPR e l’AI Act dovrebbero fungere da argine, imponendo valutazioni d’impatto sulla protezione dei dati (DPIA) rigorose. Ma di fronte alla promessa di raddoppiare la produttività e dimezzare i costi, quanti Data Protection Officer sono stati messi a tacere o ignorati nel nome della competitività?
La “scatola nera” non è solo algoritmica, è contrattuale. Non sappiamo veramente cosa succeda lì dentro, e a quanto pare, finché i grafici salgono, a nessuno importa davvero.
La domanda che dovremmo porci non è quanto tempo stiamo risparmiando, ma cosa stiamo cedendo in cambio. Abbiamo barattato l’autonomia operativa e la privacy dei processi industriali per un po’ di efficienza a breve termine.
E quando la bolla dell’hype si sgonfierà, o quando i regolatori decideranno di guardare davvero sotto il cofano di questi “partner digitali”, potremmo scoprire che il prezzo da pagare è molto più alto di un abbonamento mensile Enterprise.