Perplexity ai e la fine del web: stiamo delegando il pensiero?
Dalla comodità degli “Answer Engine” al rischio di delegare il pensiero critico: cosa si cela dietro l’ascesa di Perplexity AI e la sua appropriazione di contenuti su scala industriale
Se c’è una cosa che abbiamo imparato in due decenni di dominio incontrastato di Google, è che la comodità si paga sempre con la privacy.
Eppure, nel gennaio 2026, sembriamo aver dimenticato collettivamente questa lezione fondamentale.
Mentre il mondo tech festeggia la morte dei “dieci link blu” e l’ascesa degli “Answer Engine”, nessuno sembra chiedersi cosa stia succedendo dietro le quinte di aziende come Perplexity AI.
Non stiamo più cercando informazioni; stiamo delegando il pensiero critico a scatole nere che masticano il web e ci rigurgitano una verità pre-digerita.
L’entusiasmo è palpabile, certo. L’idea di non dover più navigare tra banner pubblicitari e siti SEO-spam per trovare una ricetta o una data storica è seducente.
Ma il modello di business che sta emergendo è, per usare un eufemismo, predatorio.
Siamo passati dall’essere esploratori del web a consumatori passivi di sintesi algoritmiche. E mentre ci godiamo la velocità della risposta, stiamo smantellando l’economia stessa che produce quelle informazioni.
Il problema non è solo economico, è strutturale.
Stiamo affidando la nostra comprensione del mondo a un intermediario che non ha alcun interesse a mostrarci le sfumature, ma solo a tenerci incollati alla sua interfaccia.
Il paradosso del vampiro digitale
Per capire la gravità della situazione, bisogna guardare ai numeri e alle intenzioni dichiarate. Perplexity non vuole mandarvi su un sito web; vuole che restiate su Perplexity.
Questo non è un motore di ricerca, è un cul-de-sac informativo.
L’obiettivo dichiarato è l’efficienza, ma il risultato è l’accentramento totale. Aravind Srinivas, CEO dell’azienda, è stato cristallino su questa evoluzione in tempi non sospetti:
L’approccio tradizionale alla ricerca consisteva nel restituire dieci link blu, che gli utenti dovevano poi setacciare per trovare le informazioni che cercavano. Negli ultimi anni, questo modello si è evoluto per fornire risposte dirette alle domande degli utenti. Questo è ciò che intendo per “answer engine”: gli utenti possono fare qualsiasi domanda direttamente e ricevere una risposta vera e propria, non solo un elenco di pagine web che potrebbero o meno contenere la risposta.
— Aravind Srinivas, CEO e Co-fondatore di Perplexity AI
Sembra un servizio pubblico, vero?
In realtà è un’appropriazione indebita di contenuti su scala industriale.
I dati indicano che Perplexity gestisce ormai un volume di 780 milioni di query al mese, un numero che rappresenta centinaia di milioni di visite mancate ai siti originali.
Se il New York Times o un piccolo blog indipendente investono risorse per produrre un’inchiesta, e l’AI ne estrae il succo servendolo all’utente senza che questi clicchi mai sulla fonte, chi pagherà per la prossima inchiesta?
Il modello economico si regge sul cannibalismo: l’AI si nutre del web aperto per renderlo obsoleto.
È un conflitto di interessi grande come una casa, mascherato da innovazione. E la tecnologia che rende possibile tutto questo è tanto affascinante quanto inquietante.
La memoria che non dimentica
Qui entriamo nel territorio della sorveglianza mascherata da “personalizzazione”. Per funzionare così bene, questi sistemi non si limitano a leggere l’intera pagina web come facevano i vecchi crawler di Google.
Fanno qualcosa di molto più invasivo: frammentano l’informazione.
Non indicizzano documenti, indicizzano concetti.
In una recente intervista che ha fatto molto discutere gli addetti ai lavori, un esperto tecnico di Perplexity ha svelato il trucco:
Per quanto riguarda la tecnologia di indicizzazione, la più grande differenza nella ricerca AI in questo momento si riduce all’elaborazione dell’intero documento rispetto al “sotto-documento”…. I motori di ricerca tradizionali indicizzano a livello di intero documento. Guardano una pagina web, le assegnano un punteggio e la archiviano.
— Jesse, Intervistato esperto presso Perplexity AI
Questa capacità di elaborazione “sub-documentale” significa che l’AI può estrarre una singola frase dal contesto originale e ricomporla in una nuova narrazione.
Ma c’è un rischio enorme per la privacy dell’utente finale. Per fornire risposte pertinenti, questi sistemi devono mantenere una “memoria” delle vostre interazioni precedenti.
I modelli supportati dalla piattaforma includono giganti come GPT-5 e Claude 4.0 Sonnet, capaci di analizzare pattern comportamentali con una precisione spaventosa.
Quando chiedete un consiglio medico, legale o finanziario, state alimentando un profilo utente che, in un mondo ideale, sarebbe protetto dal GDPR. Ma sappiamo bene che le normative europee arrivano sempre con anni di ritardo rispetto alla tecnologia.
Dove finiscono questi dati? Vengono usati per addestrare ulteriormente i modelli?
Se l’AI “ricorda” che avete chiesto informazioni su una malattia specifica tre mesi fa e oggi chiedete informazioni su un farmaco correlato, sta incrociando dati sensibili in un modo che nessun motore di ricerca tradizionale avrebbe mai osato fare così apertamente.
E tutto questo avviene mentre ci vendono la favola della “Trust Map”, una mappa della fiducia che dovrebbe garantire la qualità delle fonti.
Chi paga il conto alla fine?
La “Trust Map” citata da Srinivas è l’ennesima scatola nera. Chi decide quale fonte è affidabile? Un algoritmo proprietario.
È il ritorno dell’editoria centralizzata, ma senza la responsabilità editoriale.
Se l’algoritmo decide che una fonte controversa è “autorevole”, quella diventa la verità per milioni di utenti. Non c’è contraddittorio, non c’è la pluralità dei dieci link blu dove potevi scegliere di leggere opinioni diverse.
C’è solo La Risposta.
La differenziazione competitiva di cui si vantano, spiegata dettagliatamente in una recente intervista tecnica sul funzionamento della ricerca AI, si basa su tecniche proprietarie di riformulazione delle query e modulazione del calcolo.
In parole povere: manipolano la vostra domanda per darvi la risposta che il sistema ritiene migliore.
Siamo di fronte a un bivio pericoloso. Da una parte abbiamo la comodità di un oracolo digitale sempre disponibile; dall’altra, il rischio concreto di distruggere l’ecosistema dell’informazione indipendente e di regalare i nostri pensieri più intimi a un’azienda che deve monetizzare ogni singola interazione.
Quando l’unica fonte di verità diventa un algoritmo che sintetizza il mondo per noi, abbiamo smesso di cercare e abbiamo iniziato a obbedire?