IA nel 2026: l’adozione cresce, il ROI crolla per la scarsa saggezza aziendale
Se c’è una cosa che il 2026 ci sta insegnando brutalmente, è che la legge di Moore non si applica alla saggezza aziendale.
Siamo arrivati a un punto di flesso tecnologico che molti sviluppatori avevano previsto, ma che i dipartimenti marketing hanno ignorato finché i nodi non sono venuti al pettine.
L’intelligenza artificiale generativa non è più quel giocattolo sperimentale che usavamo per generare copy divertenti su Slack nel 2023; oggi è un’infrastruttura critica, integrata profondamente nello stack tecnologico delle aziende. Eppure, paradossalmente, mentre l’adozione tocca i massimi storici, la capacità di dimostrare che tutto questo serva davvero a qualcosa sta crollando.
I dati sono impietosi per chi ama i grafici in salita costante. Se da un lato il 91% dei marketer utilizza attivamente l’IA nei propri flussi di lavoro (un salto notevole rispetto al 63% dell’anno scorso), la percentuale di chi riesce a dimostrare un ROI (Return on Investment) chiaro è scesa al 41%.
Non è un errore di calcolo: è il sintomo di una complessità tecnica che abbiamo sottovalutato.
Abbiamo costruito macchine da corsa su strade sterrate.
La pressione dei CEO e dei CFO per trasformare l’IA in una mera voce di taglio costi (“efficienza” nel gergo corporate) si sta scontrando con la realtà ingegneristica: l’automazione di qualità richiede supervisione, non abbandono.
Il collo di bottiglia non è l’algoritmo, è il dato
Il problema tecnico fondamentale che sta emergendo quest’anno non risiede nella potenza computazionale o nella sofisticazione dei modelli LLM (Large Language Models). Il problema risiede a monte, in quella che in gergo tecnico chiamiamo data hygiene.
Per anni, i dipartimenti marketing hanno accumulato dati non strutturati in data lake che assomigliano più a paludi digitali. Quando colleghi un motore probabilistico come un’IA generativa a un dataset sporco o frammentato, il risultato non è “magia”, ma allucinazione su scala industriale.
È il classico principio del Garbage In, Garbage Out, che oggi assume una rilevanza finanziaria critica. I CMO (Chief Marketing Officers) si trovano a dover spiegare ai board perché, nonostante un investimento massiccio in ruoli e tecnologie IA, i risultati di business non siano lineari.
La verità è che l’IA non è un plugin che si installa e si dimentica; è un livello logico che richiede dati puliti, API stabili e una governance rigorosa. Senza questi elementi, l’IA amplifica l’inefficienza invece di risolverla.
Un rispondente anonimo, in una recente indagine condotta tra i leader del settore, ha sintetizzato perfettamente questa frizione tra aspettativa e realtà tecnica:
L’IA è valida solo quanto i dati su cui è costruita e le fonti da cui raccoglie le informazioni. È il principio ‘spazzatura dentro, spazzatura fuori’ — e il CMO si trova spesso a dover risolvere questo problema da solo.
— CMO anonimo, sondaggio Spencer Stuart
Questa solitudine tecnica del CMO è preoccupante. Significa che in molte aziende manca ancora una vera integrazione tra chi gestisce il brand e chi gestisce l’infrastruttura IT (CIO/CTO).
E mentre l’Europa arranca – con il 94% delle organizzazioni che mostrano un ritardo nella maturità dell’IA generativa rispetto ai colleghi globali – il rischio è che la fretta di recuperare porti all’adozione di soluzioni “wrapper” superficiali, tecnicamente mediocri, che offrono un’interfaccia luccicante ma nessun reale controllo sui dati proprietari.
L’illusione dell’automazione totale
C’è poi un aspetto architetturale che merita di essere smontato: l’idea che l’IA possa sostituire in toto il giudizio umano.
Dal punto di vista dello sviluppo software, i modelli attuali sono eccellenti nel pattern matching e nella generazione sintattica, ma mancano totalmente di comprensione semantica profonda e di contesto culturale. Un agente IA può ridurre il tempo di revisione di un brand del 94% – come dimostrano alcuni casi d’uso avanzati – ma non può “capire” perché una campagna potrebbe risultare offensiva o fuori luogo in un determinato contesto sociopolitico.
Qui entra in gioco la tensione sui costi. Oltre due terzi dei marketer subiscono pressioni dalla dirigenza per utilizzare l’IA al fine di tagliare i costi del personale (FTE) nei prossimi 12-24 mesi.
È una visione miope che confonde l’output con l’outcome.
Generare 100 articoli di blog in un minuto ha un costo computazionale irrisorio, ma se nessuno li legge o se danneggiano la reputazione del brand, il costo aziendale è enorme.
La realtà tecnica è che stiamo passando da un modello “Human-in-the-loop” a uno “Human-on-the-loop”, dove l’umano supervisiona agenti autonomi. Ma questo richiede personale più qualificato, non meno. Richiede persone che capiscano come funziona il prompting, come si fa il fine-tuning di un modello e come interpretare gli output probabilistici.
La pressione per ridurre gli organici tramite l’implementazione dell’IA rischia di eliminare proprio quel livello di supervisione critica necessario per evitare disastri.
Un altro dirigente ha espresso chiaramente questo paradosso, evidenziando come l’aumento della produttività non si traduca automaticamente in risparmio:
Vedo l’IA come qualcosa che può permetterci di aumentare la nostra produttività, ma non come un risparmio di costi sostenibile. Le stesse persone saranno in grado di fare di più, e le aspettative di base aumenteranno.
— CMO anonimo, sondaggio Spencer Stuart
La riscrittura dei ruoli tecnici
Siamo quindi di fronte a un bivio strutturale. Il 2026 non è l’anno in cui l’IA “prende il sopravvento”, ma l’anno in cui le aziende devono decidere se trattare l’IA come una commodity da comprare o come una competenza da sviluppare.
Il fatto che il 65% dei team di marketing abbia ora ruoli dedicati all’IA è un segnale positivo, ma bisogna vedere cosa fanno queste persone.
Se si limitano a scrivere prompt su ChatGPT, è tempo perso.
Se invece stanno costruendo pipeline di dati proprietari, addestrando piccoli modelli locali (SLM) su dati aziendali e lavorando a stretto contatto con i team di sicurezza informatica, allora siamo sulla strada giusta.
Le aziende più avanzate stanno iniziando a capire che l’open source e la trasparenza del codice sono vantaggi competitivi. Affidarsi ciecamente a “scatole nere” proprietarie di terze parti espone a rischi di lock-in tecnologico e di deriva dei modelli (model drift) che possono alterare le metriche di misurazione senza preavviso.
In questo scenario, la collaborazione tra CMO e CTO diventa l’unica via d’uscita. L’utilizzo di team ibridi uomo-IA per l’innovazione responsabile non è solo una frase fatta da consulenti, ma una necessità operativa per gestire la complessità di stack tecnologici sempre più frammentati.
La domanda che rimane sospesa non è se l’IA funzionerà – sappiamo che il codice gira – ma se siamo disposti ad accettare che la vera efficienza non nasce dalla velocità di esecuzione, ma dalla precisione della strategia.
Stiamo costruendo un sistema più intelligente, o solo un modo più veloce per generare rumore di fondo?