Intelligenza artificiale: quando il marketing supera la realtà

Intelligenza artificiale: quando il marketing supera la realtà

Dietro le promesse di onniscienza dell’IA si celano calcoli matriciali e statistica avanzata, svelando un divario tra realtà tecnologica e aspettative di mercato

Se apriamo il cofano di una moderna Ferrari, troviamo un capolavoro di ingegneria meccanica: pistoni, valvole, centraline elettroniche che orchestrano milioni di scoppi al minuto.

Se apriamo il cofano di quello che oggi, nel dicembre 2025, chiamiamo “Intelligenza Artificiale”, troviamo qualcosa di altrettanto affascinante ma radicalmente diverso da come viene venduto: troviamo calcolo matriciale, discesa del gradiente e una quantità sbalorditiva di statistica.

Non troviamo, da nessuna parte, una mente.

Siamo arrivati alla fine di un anno in cui la dissonanza tra ciò che la tecnologia è (codice, matematica, infrastruttura) e ciò che il marketing promette (coscienza, ragionamento, onniscienza) ha raggiunto livelli di guardia. Per chi, come me, passa le giornate a fare debug su pipeline di dati e a ottimizzare l’inferenza di modelli linguistici, la situazione è paradossale.

Abbiamo tra le mani strumenti di un’eleganza tecnica straordinaria, capaci di manipolare la sintassi umana con una fluidità che solo cinque anni fa sembrava fantascienza. Eppure, l’industria sembra terrorizzata dall’idea di vendere questi strumenti per quello che sono: software incredibilmente avanzato.

Devono venderli come magia.

Questa discrepanza non è un incidente di percorso, ma una scelta deliberata. È il risultato di uno slittamento semantico iniziato circa quindici anni fa, quando il termine “Machine Learning” (apprendimento automatico) – preciso, tecnico, onesto – è stato progressivamente cannibalizzato dall’etichetta “AI”. Non è stata una rivoluzione scientifica a dettare questo cambio, ma una necessità commerciale.

La scatola cinese e il prestigio statistico

Per comprendere la natura del “trucco”, bisogna guardare oltre l’interfaccia utente delle chat che simulano empatia e scendere al livello dei tensori. Un Large Language Model (LLM), per quanto vasto, opera su un principio fondamentale che non è cambiato dagli anni ’80: la manipolazione di simboli.

Intelligenza artificiale: quando il marketing supera la realtà + La scatola cinese e il prestigio statistico | Search Marketing Italia

Il filosofo John Searle, nel lontano 1980, propose l’esperimento mentale della “Stanza Cinese”. Immaginate una persona chiusa in una stanza con un manuale enorme che spiega come rispondere a simboli cinesi con altri simboli cinesi, basandosi puramente sulla loro forma.

Se fuori dalla stanza qualcuno infila un foglio con una domanda in cinese, la persona dentro – seguendo il manuale – può produrre una risposta corretta in uscita, pur non capendo una sola parola di cinese. Per chi sta fuori, la stanza “capisce”. Per chi sta dentro, è solo un gioco di incastri formali.

Oggi, i nostri “manuali” sono reti neurali con trilioni di parametri, e la persona nella stanza è una GPU che esegue miliardi di operazioni in parallelo. Il risultato è una simulazione perfetta della competenza linguistica, ma rimane, tecnicamente parlando, un’operazione sintattica, non semantica.

Il modello non “sa” cosa sta dicendo; calcola la probabilità che il token B segua il token A in un determinato contesto vettoriale.

Tuttavia, ammettere che stiamo vendendo “autocompletamento sotto steroidi” non attira investitori. Ecco perché figure accademiche di rilievo stanno alzando la voce, sostenendo che gran parte dell’hype attuale sia guidato dal marketing piuttosto che da scoperte sostanziali sulla produttività o l’intelligenza. La critica non è rivolta alla tecnologia in sé – che, ripeto, è un trionfo dell’ingegneria del software – ma alla narrazione che la circonda.

“L’IA è un trucco di marketing.”

— Erik Brynjolfsson, Direttore dello Stanford Digital Economy Lab

Quando un modello “allucina” – inventando fatti o giurisprudenza inesistente – non sta “sbagliando” nel senso umano del termine. Sta facendo esattamente ciò per cui è stato programmato: generare una sequenza di parole statisticamente plausibile.

L’errore non è nel codice, è nell’aspettativa che quella sequenza statistica corrisponda alla verità fattuale.

L’economia dell’illusione

Perché questa insistenza nel chiamare “intelligenza” ciò che è “statistica”? La risposta risiede nella struttura stessa del venture capital della Silicon Valley. Lo sviluppo di modelli di fondazione richiede investimenti di capitale (CapEx) mostruosi: data center grandi come città, forniture energetiche dedicate, e cluster di GPU che costano quanto il PIL di una piccola nazione.

Per giustificare questi costi, non basta promettere un motore di ricerca migliore o un assistente che riassume le email. Bisogna promettere la rivoluzione.

Bisogna promettere l’AGI (Artificial General Intelligence) – una macchina capace di svolgere qualsiasi compito intellettuale umano.

Solo una promessa di tale portata può sostenere valutazioni azionarie che sfidano la gravità.

In questo contesto, la sobrietà tecnica diventa un nemico. Se Yann LeCun, una delle figure più rispettate nel campo e Chief AI Scientist di Meta, prova a riportare tutti coi piedi per terra, viene spesso visto come un guastafeste. Recentemente, LeCun ha definito l’IA generativa un trucco da salotto statistico mascherato dal marketing, sottolineando come questi sistemi siano semplici pattern matcher, privi di una reale comprensione del mondo fisico o della logica causale.

“L’IA generativa non è un’intelligenza generale, ma un trucco da salotto statistico vestito a festa dal marketing.”

— Yann LeCun, Chief AI Scientist presso Meta

È interessante notare come la critica arrivi proprio da chi, il codice, lo scrive e lo supervisiona. Gli ingegneri sanno che dietro la tenda del “Mago di Oz” non c’è una coscienza emergente, ma una funzione di perdita che cerca di minimizzare l’errore su un dataset di training. La vera “intelligenza” in gioco è quella dei ricercatori che hanno progettato l’architettura dei Transformer, non quella del modello stesso.

Questa inflazione delle aspettative ha un costo reale. Le aziende si affannano a integrare “l’AI” in prodotti dove non serve, aggiungendo complessità, latenza e vulnerabilità di sicurezza, solo per poter apporre l’etichetta “AI-powered” sulla confezione. È il trionfo della FOMO (Fear Of Missing Out) sull’architettura software sensata.

Oltre il sipario del marketing

Il pericolo maggiore di questa narrazione non è solo economico, ma culturale e filosofico. A forza di antropomorfizzare il software, rischiamo di perdere la capacità di valutare criticamente gli strumenti che usiamo. Se trattiamo un chatbot come un “collega” o un “esperto”, abbassiamo le nostre difese cognitive. Smettiamo di verificare le fonti, smettiamo di analizzare la logica, e ci affidiamo all’autorità algoritmica.

Il vertice di questa piramide di promesse si trova nei progetti che mirano alla fusione fisica tra uomo e macchina. Elon Musk, ad esempio, ha fondato Neuralink promuovendo impianti cerebrali come passo necessario per fondere l’intelligenza umana con quella delle macchine, cavalcando l’onda della paura che l’IA possa superarci. Anche qui, la narrazione scivola dal tecnico (interfacce neurali per scopi medici, un campo nobile e complesso) al mitologico (immortalità digitale e simbiosi con l’AGI).

“L’attuale boom dell’IA è alimentato più dal marketing del venture capital che da scoperte scientifiche genuine.”

— Rodney Brooks, Professore Emerito al MIT

Dal punto di vista di uno sviluppatore, questo è frustrante perché oscura il valore reale dell’open source e della trasparenza. Modelli come Llama o Mistral dimostrano che non serve la “magia” chiusa in una scatola nera proprietaria per ottenere risultati eccellenti. Serve buon codice, dati puliti e un’architettura efficiente.

La democratizzazione della tecnologia passa per la comprensione del suo funzionamento, non per la sua mistificazione.

Quando Andrew Ng parla di “IA” come la nuova elettricità, intende dire che è una tecnologia abilitante, un’infrastruttura. L’elettricità non “pensa”, ma permette di fare cose straordinarie. Allo stesso modo, il Machine Learning moderno permette di automatizzare compiti cognitivi ripetitivi, di analizzare pattern in dati biomedici complessi, di ottimizzare la rete elettrica. Queste sono applicazioni concrete, noiose per i titoli di giornale, ma rivoluzionarie per la società.

Il rischio, mentre ci avviciniamo al 2026, è che lo scoppio della bolla delle aspettative trascini con sé anche la tecnologia valida. Se promettiamo un dio e consegniamo un pappagallo statistico, la delusione sarà cocente.

Ma se imparassimo a apprezzare il pappagallo per quello che è – un incredibile strumento di sintesi e recupero informazioni – potremmo finalmente smettere di aspettare che il software ci salvi (o ci distrugga) e iniziare a usarlo per scrivere codice migliore.

Alla fine, la domanda che dobbiamo porci non è “quando l’IA diventerà senziente?”, ma “perché abbiamo così tanto bisogno di credere che lo sia?”.

Forse perché vendere matematica è difficile, mentre vendere sogni è il business più vecchio del mondo.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie