Perplexity AI: quando la curiosità dell’AI è un business
Dietro le promesse di controllo umano sull’AI, si cela un’infrastruttura che monetizza la curiosità, profilando utenti e limitando le scelte in un mercato guidato dagli algoritmi.
Siamo onesti: c’è qualcosa di quasi commovente nel bisogno disperato della Silicon Valley di rassicurarci.
Più la tecnologia diventa invasiva, autonoma e opaca, più i CEO si affrettano a giurare che, in fondo, il volante è ancora nelle nostre mani.
Siamo all’inizio del 2026 e la narrazione dominante non è cambiata, si è solo fatta più sofisticata. A guidare questo coro di rassicurazioni c’è Aravind Srinivas, il volto dietro Perplexity AI, l’azienda che ha promesso di uccidere Google (o almeno di ferirlo gravemente) sostituendo la ricerca di link con risposte dirette. Srinivas ha passato l’ultimo anno a ripetere un mantra che suona come una ninna nanna per le nostre ansie da obsolescenza: l’intelligenza artificiale risolve i problemi, ma siamo noi umani a decidere cosa è importante.
Suona bene, vero?
È il tipo di umanesimo digitale che piace agli investitori e calma i regolatori europei. Ma se grattiamo via la superficie di queste dichiarazioni filosofiche, ciò che emerge è un quadro molto meno rassicurante e decisamente più profittevole per chi gestisce i server. La domanda che dovremmo porci non è se l’AI sia “curiosa” come noi, ma perché ci tengano così tanto a farcelo credere mentre costruiscono l’infrastruttura per rendere la nostra curiosità un dato estraibile e monetizzabile.
Mentre Srinivas si presenta come il paladino dell’innovazione contro i monopoli consolidati, l’azienda ha diffuso una presa di posizione contro le tattiche aggressive dei giganti tecnologici che soffocano l’innovazione, cercando di posizionarsi come l’alternativa etica. Ma “etico” nel capitalismo della sorveglianza è spesso solo un sinonimo di “non ancora abbastanza grande da essere il cattivo”.
La favola del controllo umano (e chi paga il biglietto)
L’idea che l’essere umano rimanga il decisore ultimo è il pilastro su cui si regge l’accettazione sociale di queste tecnologie. Srinivas ha costruito la sua immagine pubblica su questa distinzione netta tra “calcolo” e “giudizio”.

«L’intelligenza artificiale può risolvere i problemi, ma sono gli esseri umani a decidere cosa conta».
— Aravind Srinivas, CEO di Perplexity
È una frase perfetta per i titoli dei giornali e per i podcast, ma nasconde un conflitto di interessi grande quanto un data center. Perplexity, come ogni motore di risposta, non vive di aria.
Vive di contesto.
Per “risolvere i problemi” in modo efficace, l’AI deve conoscere non solo la domanda, ma l’intento, la storia, le preferenze e le debolezze di chi la pone.
Dire che “l’umano decide” è tecnicamente vero, ma ignora il framing. Se l’AI mi presenta tre opzioni preselezionate su un milione di possibilità, la mia “decisione” è libera o è un percorso guidato all’interno di un recinto invisibile? Nel momento in cui deleghiamo la sintesi della conoscenza a un algoritmo proprietario, stiamo appaltando la nostra capacità critica a una black box. E questa scatola nera vale una fortuna.
Non è un caso che gli investitori stiano inondando di denaro queste piattaforme. Recentemente, Perplexity ha raggiunto una valutazione di 14 miliardi di dollari trasformando radicalmente il flusso di lavoro degli sviluppatori, riducendo compiti di giorni a poche ore. Questo aumento di efficienza è il prodotto venduto alle aziende, ma il sottoprodotto è la dipendenza cognitiva dei lavoratori.
Se il software scrive il codice e l’umano si limita a “decidere cosa conta”, quanto tempo passerà prima che l’umano non sia più in grado di capire se il codice fa davvero quello che deve?
La privacy, in questo scenario, diventa la prima vittima sacrificale. Per permettere all’AI di essere un “partner”, dobbiamo concederle un accesso senza precedenti alle nostre vite professionali e personali. Il GDPR e le normative sulla privacy continuano a rincorrere, ma la realtà tecnica corre più veloce: per funzionare come promesso, questi sistemi richiedono una profilazione così profonda da rendere i vecchi cookie di tracciamento quasi innocenti al confronto.
L’inevitabilità come strategia di marketing
C’è poi un lato più oscuro in questa retorica, che emerge quando le difese calano. Nonostante le rassicurazioni sul controllo umano, lo stesso Srinivas ha lasciato intendere che l’integrazione totale non è opzionale. È un classico doppio vincolo psicologico: “Tu hai il controllo, ma non puoi fermarlo”.
«L’intelligenza artificiale gestirà la tua vita, che ti piaccia o no».
— Aravind Srinivas, CEO di Perplexity
Questa apparente contraddizione — siamo noi a decidere, ma l’AI gestirà tutto comunque — non è un errore di comunicazione. È il cuore del modello di business. La “decisione umana” di cui parlano si riduce alla scelta di quale abbonamento pagare per non rimanere esclusi dal mercato del lavoro o dalla vita sociale digitale.
In India e in altri mercati in rapida espansione, questa dinamica è già visibile. Srinivas ha lanciato una previsione secondo cui l’intelligenza artificiale gestirà le nostre vite indipendentemente dalla nostra volontà, sottolineando come la tecnologia stia diventando l’infrastruttura invisibile dell’esistenza quotidiana.
Se l’AI gestisce la mia agenda, filtra le mie email, sintetizza le notizie che leggo e scrive le mie risposte, in quale preciso momento sto esercitando il mio “diritto di decidere cosa conta”?
Probabilmente solo nel momento in cui inserisco i dati della carta di credito. È l’illusione della scelta applicata all’automazione di massa. Ci viene venduta l’idea di un assistente instancabile, ma stiamo installando un intermediario che ha come obiettivo primario la propria crescita e la soddisfazione dei suoi azionisti, non necessariamente il nostro benessere o la verità dei fatti.
Agenti curiosi o sorveglianti perfetti?
Il vero salto di qualità, quello che dovrebbe preoccuparci più delle valutazioni miliardarie, è il passaggio ai cosiddetti “agenti”. Perplexity e i suoi concorrenti non vogliono più solo rispondere alle domande; vogliono agire per noi. Prenotare voli, acquistare prodotti, negoziare appuntamenti.
Srinivas ama dire che la sua azienda si fonda sulla “curiosità”, contrapponendosi all’approccio puramente computazionale di OpenAI.
«Ogni azienda dovrebbe rappresentare un’emozione umana fondamentale… La nostra è la curiosità. OpenAI rappresenta l’intelligenza. Noi rappresentiamo la curiosità — perché l’AI non è intrinsecamente curiosa. Gli umani lo sono».
— Aravind Srinivas, CEO di Perplexity
È una narrazione affascinante. L’AI come estensione della nostra sete di conoscenza. Ma un “agente” curioso è, per definizione, un agente che ficca il naso ovunque. Per essere veramente utile in senso “agentico”, il sistema deve avere accesso ai nostri dati bancari, alle nostre conversazioni private, alla nostra geolocalizzazione in tempo reale.
La “curiosità” di Perplexity non è un tratto emotivo; è una necessità tecnica per l’addestramento dei modelli e per la profilazione comportamentale. Ogni domanda che poniamo al motore di ricerca non svanisce nel nulla; diventa parte del dataset che affina la capacità del sistema di prevedere (e influenzare) la nostra prossima mossa.
Le big tech stanno costruendo un mondo in cui l’attrito è eliminato. Ma l’attrito — il dover cercare, verificare, confrontare, leggere le fonti originali invece di un riassunto — è anche lo spazio dove risiede il pensiero critico. Eliminando la fatica della ricerca, eliminiamo anche il processo di verifica. Ci fidiamo della sintesi perché è comoda, e ci fidiamo di chi la produce perché ci dice che siamo ancora noi i padroni.
Siamo di fronte a un paradosso normativo ed esistenziale. Da un lato, il regolatore europeo cerca di imporre trasparenza e minimizzazione dei dati; dall’altro, la promessa tecnologica di un’AI che “risolve i problemi” richiede opacità (i modelli sono proprietari) e massimizzazione dei dati (più contesto ho, meglio rispondo).
Forse ha ragione Srinivas: l’AI risolverà i problemi. Ma se il problema che l’AI sta risolvendo è “come estrarre valore dall’attenzione umana con la massima efficienza possibile”, allora la nostra capacità di “decidere cosa conta” potrebbe essere già stata ridotta a un semplice click su “Accetta i Termini e le Condizioni”.
La vera domanda non è se l’AI ci sostituirà, ma se ci accorgeremo della differenza quando le nostre decisioni saranno diventate nient’altro che l’output prevedibile di un algoritmo ben addestrato.