L’analisi di ben affleck sull’ia: più artigiano che artista
L’analisi di Ben Affleck sull’IA smonta le narrazioni dominanti e svela i limiti intrinseci dei Large Language Models, aprendo un dibattito sulla sostenibilità e il valore reale di questa tecnologia.
Succede di rado, nel nostro settore, che l’analisi tecnica più lucida sullo stato dell’arte dell’intelligenza artificiale arrivi non da un CTO della Silicon Valley o da un ricercatore accademico, ma da chi, sulla carta, dovrebbe esserne la vittima designata.
A distanza di un anno dalle dichiarazioni che hanno fatto il giro del web, la disamina offerta da Ben Affleck ospite di Joe Rogan rimane un punto fermo sorprendentemente accurato sull’architettura dei Large Language Models (LLM) e sui loro limiti intrinseci.
Mentre il mondo tech continuava a vendere l’idea di una “Superintelligenza” imminente, l’attore e regista ha smontato pezzo per pezzo la narrazione dominante, evidenziando quella che noi sviluppatori chiamiamo “allucinazione statistica”.
In un episodio del podcast ormai divenuto un caso di studio, Ben Affleck e Matt Damon hanno discusso i limiti dell’intelligenza artificiale, sottolineando come questi modelli non siano creativi nel senso umano del termine, ma funzionino piuttosto come sofisticati “impollinatori incrociati”, riaggregando dati esistenti senza una reale comprensione semantica o emotiva.
Il plateau dei rendimenti decrescenti
Il punto focale dell’argomentazione, che molti evangelisti dell’AI preferiscono ignorare, riguarda la curva di apprendimento dei modelli generativi.
Siamo abituati alla Legge di Moore e ci aspettiamo che la potenza raddoppi costantemente, ma le reti neurali non scalano all’infinito senza costi proibitivi. Affleck ha toccato un nervo scoperto quando ha fatto notare che l’incremento prestazionale tra una generazione e l’altra sta rallentando drasticamente rispetto all’esplosione iniziale vista con il passaggio da GPT-3 a GPT-4.
Non è solo una questione di percezione, ma di ingegneria pura.
Durante l’intervista, Affleck ha citato dati specifici, osservando che ChatGPT-5 rappresenta un miglioramento di circa il 25% rispetto al modello precedente, ma a fronte di un consumo energetico e di risorse computazionali quadruplicato.
In termini tecnici, stiamo assistendo a un plateau nella curva di efficienza: per ottenere guadagni marginali nella qualità dell’output, siamo costretti a bruciare quantità esponenziali di dati e watt. Questo solleva dubbi legittimi sulla sostenibilità a lungo termine del “brute forcing” come unica strategia di sviluppo per l’AGI (Artificial General Intelligence).
Se l’hardware deve lavorare quattro volte tanto per darci un modello che è solo “un po’ meglio”, il modello di business basato sulla sostituzione totale della forza lavoro umana inizia a scricchiolare.
L’errore di fondo, evidenziato implicitamente, è credere che l’accumulo di parametri equivalga all’emergere della coscienza o del gusto artistico.
L’ia come “artigiano”, non come artista
L’aspetto forse più affascinante dell’analisi è la distinzione tra la generazione procedurale di asset e la creazione artistica vera e propria.
Affleck ha definito l’AI come un ottimo “artigiano” (craftsman), capace di imitare stili, correggere errori tecnici o riempire sfondi — compiti che nel rendering o nel coding chiamiamo “boilerplate” — ma incapace di generare qualcosa di intrinsecamente nuovo o imperfetto nel modo “giusto”.
Tecnicamente, questo si spiega con il funzionamento probabilistico dei trasformers: sono macchine progettate per prevedere il token successivo più probabile.
La creatività umana, al contrario, spesso risiede nella scelta meno probabile, nell’anomalia, nella rottura del pattern che risuona a livello emotivo.
Quando un articolo pubblicato dall’Economic Times riassume i commenti dell’attore descrivendo l’output dell’IA come “mediocre” (o shitty, per usare il termine colorito originale) rispetto alla creatività umana, non sta esprimendo solo un giudizio estetico, ma descrive un limite architetturale: l’IA tende alla media statistica del suo dataset di addestramento.
Converge verso il “già visto”, mai verso l’unico.
La dissonanza tra valore e valutazione
C’è poi il capitolo economico, inscindibile da quello tecnologico.
Le valutazioni astronomiche delle startup di AI nel biennio 2023-2024 si basavano sulla promessa che questi modelli avrebbero sostituito sceneggiatori, programmatori e registi. La realtà del 2026 ci mostra uno scenario diverso: l’IA è diventata uno strumento di supporto, un copilot avanzato, ma non il pilota.
L’industria del venture capital ha venduto l’idea che l’IA avrebbe democratizzato la creazione di blockbuster, permettendo a chiunque di generare un film da un prompt testuale. La realtà tecnica è che il risultato è spesso un pastiche senz’anima che richiede comunque un intervento umano massiccio per essere fruibile.
Affleck ha smascherato il bluff: l’IA è utile per abbattere i costi delle task ripetitive (come il rotoscoping o la correzione colore), ma non può sostituire il processo decisionale artistico che dà valore al prodotto finale.
Siamo quindi di fronte a una tecnologia straordinaria per l’ottimizzazione dei processi, ma forse inadeguata per la rivoluzione cognitiva che ci era stata promessa?
La risposta risiede probabilmente nella differenza tra calcolare e comprendere, un abisso che nessun numero di GPU sembra ancora in grado di colmare.