L’incubo AI: Dalla Sbronza del 2025 al Dominio del Cloud nel 2026
Mentre l’attenzione è focalizzata sull’uso dell’intelligenza artificiale, si profila una dipendenza dalle infrastrutture cloud che solleva interrogativi sulla privacy e il controllo dei dati
Se pensavate che il 2025 fosse stato l’anno della sbronza da intelligenza artificiale, preparatevi al mal di testa del 2026.
Mentre noi comuni mortali siamo ancora impegnati a capire se i nostri dati sanitari sono finiti in qualche server in Arizona o a Shanghai, l’industria tech ha già deciso il menu per il prossimo decennio.
E spoiler: il piatto forte siamo noi, o meglio, la nostra dipendenza dalle loro infrastrutture.
I numeri che circolano in questi primi giorni dell’anno sono da capogiro, abbastanza da far brillare gli occhi agli investitori e far tremare i polsi a chiunque abbia a cuore la minimizzazione dei dati.
Secondo le proiezioni più recenti, il mercato delle piattaforme software di intelligenza artificiale raggiungerà i 100 miliardi di dollari entro il 2035.
Una cifra mostruosa che non indica semplicemente un miglioramento tecnologico, ma un cambio di paradigma brutale: non stiamo più comprando software, stiamo affittando l’intelligenza.
E il padrone di casa ha le chiavi di tutto.
Non è un caso che questa esplosione di valore — parliamo di una crescita annuale composta (CAGR) superiore al 14% — coincida con una centralizzazione senza precedenti.
Le chiamano “piattaforme software”, un termine asettico e rassicurante che evoca ordine e stabilità. In realtà, sono ecosistemi chiusi progettati per aspirare dati aziendali e personali, elaborarli in scatole nere proprietarie e rivenderci il risultato sotto forma di “efficienza”.
Ma cosa stiamo costruendo, esattamente?
La trappola del Cloud (e chi possiede l’interruttore)
Per capire dove stiamo andando, bisogna guardare a cosa è successo dietro le quinte mentre tutti erano distratti dai chatbot che scrivevano poesie in rima baciata.
Grandi attori come Google e Amazon non hanno investito miliardi per beneficenza. Il lancio di versioni sempre più integrate di Vertex AI o AWS SageMaker non serve solo a “facilitare il deployment”, come recitano i comunicati stampa tirati a lucido.
Serve a rendere tecnicamente impossibile, o economicamente suicida, fare AI fuori dal loro cloud.
È la strategia del “lock-in” elevata a potenza.
Se nel 2012 AlexNet ha dimostrato che le reti neurali funzionavano, il 2025 ha dimostrato che per farle girare serve una potenza di calcolo che solo tre o quattro aziende al mondo possiedono.
Il risultato? Le proiezioni indicano che le soluzioni basate su cloud arriveranno a dominare oltre il 60% del mercato nel prossimo decennio.
Questo ha implicazioni devastanti per la privacy. Quando un’azienda sposta il proprio sviluppo AI sul cloud di un gigante tech, sta di fatto spostando il perimetro dei propri dati in un territorio dove le leggi europee come il GDPR faticano a imporsi.
Ci dicono che i dati sono criptati, che sono sicuri. Ma la storia recente ci insegna che “sicuro” in ambito Big Tech significa spesso “sicuro finché non troviamo un modo più redditizio di usarlo”.
Chi controlla l’infrastruttura, controlla le regole del gioco.
E se l’infrastruttura è opaca per definizione, come possiamo fidarci?
La verità scomoda è che l’on-premise (tenersi i dati in casa) sta diventando un lusso per pochi paranoici o per settori iper-regolamentati, mentre la massa viene spinta verso il macello del cloud pubblico, dove l’addestramento dei modelli su dati promiscui è la norma, non l’eccezione.
La corsa al ribasso sulla sicurezza
Se l’infrastruttura è il problema strutturale, la competizione di mercato è il catalizzatore del disastro.
L’anno scorso abbiamo assistito all’ascesa di DeepSeek e alla risposta frenetica di OpenAI con i nuovi modelli GPT-4 aggiornati. Sembrava una puntata di una serie TV: l’outsider che sfida il campione, l’accelerazione dell’innovazione, i titoli dei giornali che gridano al miracolo.
Ma guardiamo le cose con gli occhi di un regolatore — o di una vittima.
Questa competizione ha creato una pressione insostenibile per rilasciare prodotti “abbastanza buoni” il prima possibile. La sicurezza, l’etica e la privacy by design sono diventate zavorre da gettare a mare per non perdere quota.
Quando il mercato corre a questi ritmi, non c’è tempo per verificare se il dataset di addestramento contiene informazioni sensibili che non dovrebbero esserci, o se il modello ha imparato a discriminare in base al codice postale.
L’Europa prova a mettere paletti con l’AI Act, ma la tecnologia si muove più veloce della burocrazia.
Mentre a Bruxelles si discute di come classificare il rischio, in California e a Shenzhen si addestrano modelli su tutto ciò che è scansionabile, protetto o meno dal diritto d’autore o dalla privacy.
E il mercato premia questa spregiudicatezza: si prevede una crescita annuale composta superiore al 14% fino al 2034, trainata proprio dalla domanda di queste capacità avanzate in Nord America e Asia, dove la sensibilità alla protezione dei dati è, per usare un eufemismo, “flessibile”.
L’illusione dell’automazione perfetta
C’è poi l’aspetto più sottile, quello del marketing che permea ogni singola previsione finanziaria. Ci viene venduta l’idea che queste piattaforme servano per l’analisi predittiva, per l’automazione, per liberare l’uomo dai lavori noiosi.
È la solita vecchia canzone: la tecnologia ci salverà dalla fatica.
Tuttavia, il vero modello di business non è vendere software, ma vendere previsioni comportamentali. Più le aziende integrano queste piattaforme nei loro processi — dal servizio clienti alla gestione delle risorse umane — più i fornitori della piattaforma imparano come funzionano quelle aziende.
È un’operazione di intelligence industriale su scala globale, mascherata da servizio B2B.
In questo scenario, il Machine Learning (ML) e il Natural Language Processing (NLP) non sono solo strumenti tecnici; sono sonde.
Ogni volta che un’azienda usa un’API di un gigante tech per analizzare il sentiment dei propri clienti, sta regalando a quel gigante tech una visione privilegiata sulle proprie dinamiche interne.
E pagano pure per farlo.
È un capolavoro di ingegneria finanziaria, ma un incubo per la sovranità dei dati.
Le aziende che oggi si vantano di aver “integrato l’AI” stanno spesso solo integrando la propria dipendenza da terze parti, legandosi mani e piedi a contratti che permettono variazioni unilaterali delle condizioni di servizio e, spesso, l’uso dei dati di input per “migliorare il servizio” (leggasi: addestrare i modelli che verranno venduti ai concorrenti).
Siamo di fronte a un paradosso: mai come oggi abbiamo avuto leggi sulla privacy severe, e mai come oggi siamo stati così trasparenti — nel senso di attraversabili — per le grandi corporation.
L’investimento massiccio in queste piattaforme, che porterà il mercato a quadruplicare il suo valore in dieci anni, non è un segnale di progresso indiscriminato. È il costo del biglietto per entrare in un mondo dove la privacy è un’opzione legacy, disattivata di default nelle impostazioni avanzate.
Resta da chiedersi: quando tra dieci anni ci guarderemo indietro e vedremo un mercato da 100 miliardi costruito sulle nostre impronte digitali, saremo i clienti soddisfatti di questa rivoluzione o il prodotto che è stato venduto all’ingrosso?