Aravind Srinivas (Perplexity AI): l'Intento Umano è Insostituibile per l'IA

Aravind Srinivas (Perplexity AI): l’Intento Umano è Insostituibile per l’IA

Aravind Srinivas (Perplexity AI) mette in guardia sui limiti dell’IA, sottolineando come la vera innovazione risieda nella capacità umana di formulare domande significative.

C’è un’ironia di fondo che attraversa la Silicon Valley in questo inizio di 2026. Mentre i modelli linguistici diventano sempre più vasti e le GPU divorano gigawatt di energia con la voracità di piccole nazioni, chi siede al vertice della piramide dell’hype inizia a tirare il freno a mano sulla narrazione dell’onnipotenza digitale.

Non è timidezza, e nemmeno falsa modestia: è una presa di coscienza tecnica dei limiti architetturali che ancora separano il calcolo dall’intenzione.

Aravind Srinivas, CEO di Perplexity AI, ha passato gli ultimi anni a costruire quello che molti considerano il successore spirituale di Google. Eppure, proprio mentre la sua azienda consolidava la posizione di mercato, Srinivas ha iniziato a battere su un tasto dissonante rispetto al coro tecno-ottimista: l’insostituibilità del fattore umano.

Non per romanticismo, ma per una questione di design del sistema.

Per comprendere questa posizione, bisogna guardare oltre la valutazione finanziaria che ha visto la capitalizzazione di Perplexity raggiungere lo status di unicorno multimiliardario. Bisogna scendere nel “sala macchine” dei Large Language Models (LLM).

Un LLM, per quanto sofisticato, è essenzialmente un motore probabilistico. È una macchina che prevede il prossimo token (parola o frammento di parola) basandosi su una distribuzione statistica appresa da una quantità inimmaginabile di testo.

È formidabile nell’interpolazione, ma tecnicamente incapace di “volere” qualcosa.

La frontiera della curiosità

Il punto focale dell’argomentazione di Srinivas risiede nella distinzione tra risoluzione e formulazione. I sistemi attuali, basati sull’architettura Transformer introdotta nel 2017, sono reattivi, non proattivi.

Un modello non si sveglia la mattina chiedendosi perché il cielo è blu o come ottimizzare un compilatore, a meno che non venga sollecitato da un prompt.

Manca, in termini ingegneristici, l’agente iniziatore.

Srinivas ha cristallizzato questo concetto tecnico in una riflessione quasi filosofica durante un recente intervento:

L’IA ha forse posto una domanda e cercato di risolverla? No. È stata la curiosità dell’essere umano a portare anche solo a considerare che fosse importante riflettere su una congettura.

— Aravind Srinivas, Co-founder e CEO di Perplexity AI

Questa non è una banalità semantica. Nel ciclo di sviluppo software, definire il problema (il “what”) è spesso molto più complesso che implementare la soluzione (il “how”).

L’IA eccelle nell’ottimizzazione di percorsi definiti, ma fallisce miseramente nell’esplorazione di spazi concettuali non mappati. La “curiosità” umana, in questo contesto, funge da funzione di guida per indirizzare la potenza di calcolo grezza verso nodi rilevanti.

Senza l’input umano che stabilisce i vincoli e gli obiettivi, l’IA è un motore che gira a vuoto, potentissimo ma statico.

L’errore comune è confondere la capacità di rispondere con la capacità di comprendere. Quando Perplexity ha introdotto il suo motore di risposta conversazionale basato sull’IA, non ha creato un oracolo, ma un’interfaccia di sintesi.

La differenza è sottile ma cruciale: il sistema aggrega, riassume e cita, ma la validità semantica della query originale rimane una responsabilità interamente biologica.

Il collo di bottiglia dell’intento

Qui entriamo in un territorio scivoloso per l’industria. Se l’IA non può definire i problemi, il valore economico si sposta drasticamente dall’esecuzione all’ideazione.

Siamo abituati a pensare all’automazione come a qualcosa che rimuove l’umano dal ciclo (human-out-of-the-loop). La visione tecnica di Srinivas suggerisce invece un approccio human-in-the-loop obbligato.

Il motivo è legato alla natura stessa dei dati di addestramento. Gli LLM sono addestrati sul passato, su ciò che è già stato scritto e codificato.

Non possono, per definizione, predire o generare conoscenza su eventi o problemi che non hanno una rappresentazione latente nei loro pesi neurali.

L’IA potrebbe aiutare gli umani a risolvere un problema esistente, ma è molto diverso dal risolverlo autonomamente. Il vantaggio rimane agli umani perché è stato un umano a identificare il problema in primo luogo.

— Aravind Srinivas, Co-founder e CEO di Perplexity AI

Questo ci porta a considerare l’architettura RAG (Retrieval-Augmented Generation) che Perplexity e i suoi concorrenti utilizzano. A differenza di un modello “chiuso” come le prime versioni di GPT, un sistema RAG recupera informazioni fresche dal web prima di generare una risposta.

È una soluzione elegante al problema delle “allucinazioni” (inventare fatti), ma introduce una nuova dipendenza: la qualità delle fonti.

E chi giudica la qualità delle fonti?

Ancora una volta, l’utente.

La trasparenza tecnica diventa quindi un requisito funzionale, non solo etico. Se l’utente non può vedere le citazioni (i “puntatori” alle fonti originali), non può esercitare quella funzione critica di verifica che la macchina non possiede.

Un sistema opaco che fornisce risposte perfette senza mostrare il ragionamento è, paradossalmente, meno utile di un sistema imperfetto che mostra il suo lavoro, perché il primo richiede fede, il secondo permette l’audit.

In questo scenario, osservatori del settore come Toolhunt hanno sottolineato come l’IA e gli esseri umani siano complementari e non competitivi, proprio perché i modelli mancano di contesto e comprensione profonda, richiedendo una guida etica e logica costante.

Efficienza: Silicio vs Carbonio

C’è poi un aspetto brutalmente pragmatico che spesso viene ignorato nelle discussioni generaliste: l’efficienza energetica.

Il cervello umano opera con un consumo di circa 20 watt. Per replicare una frazione delle sue capacità cognitive con un cluster di H100 di NVIDIA, servono megawatt di potenza e sistemi di raffreddamento a liquido.

Srinivas ha toccato questo punto, suggerendo che la centralizzazione dell’intelligenza nei data center potrebbe non essere l’architettura finale. C’è una tensione crescente tra il modello “cloud-heavy” (dove tutto il calcolo avviene su server remoti) e l’Edge AI (dove l’inferenza avviene sul dispositivo locale).

Tecnicamente, spostare l’inferenza sul dispositivo (on-device) è il Santo Graal. Risolve problemi di latenza, riduce i costi di banda e, soprattutto, garantisce la privacy.

Ma richiede modelli distillati, quantizzati, estremamente ottimizzati. E anche qui, il collo di bottiglia non è il silicio, ma il contesto.

Un modello locale sul mio telefono può essere velocissimo, ma se non capisce il motive delle mie azioni, rimane un assistente glorificato.

Siamo di fronte a un paradosso affascinante. Più le macchine diventano capaci di elaborare risposte complesse, più diventa evidente che la risorsa scarsa non è la potenza di calcolo, ma la capacità di porre le domande giuste.

L’insistenza di Srinivas sul ruolo umano potrebbe sembrare una mossa difensiva per placare i regolatori e l’opinione pubblica spaventata dalla sostituzione lavorativa.

Tuttavia, analizzando l’architettura dei sistemi attuali, la sua sembra più una constatazione tecnica che politica: abbiamo costruito motori incredibili, ma il volante è ancora, e forse rimarrà per sempre, nelle mani di chi ha l’intenzione di viaggiare.

Resta da chiedersi se, in un futuro in cui l’IA sarà in grado di auto-correggersi e riscrivere il proprio codice, questa distinzione tra “curiosità” e “calcolo” reggerà ancora, o se stiamo semplicemente guardando l’ultimo rifugio dell’eccezionalismo biologico prima del prossimo salto quantico.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie