Perplexity: L'Agente Ai è un Cavallo di Troia?

Perplexity: L’Agente Ai è un Cavallo di Troia?

Dietro la promessa di comodità e automazione si nasconde un sistema che rischia di esporre i nostri dati e violare le normative, lasciandoci soli a fronteggiare le conseguenze

Siamo onesti: l’idea di un “agente” personale che naviga il web al posto nostro, compra le scarpe su Amazon e prenota le vacanze mentre noi sorseggiamo un caffè, è il sogno bagnato di ogni pigro digitale.

Ed è esattamente il sogno che Perplexity sta cercando di venderci con il suo browser Comet e i nuovi strumenti di “Agent Safety”.

Ma se grattiamo via la patina dorata del marketing della Silicon Valley, quello che emerge oggi, in questo inizio di 2026, assomiglia molto meno a un assistente fidato e molto più a un cavallo di Troia progettato per aggirare le regole a nostre spese.

La narrazione ufficiale è rassicurante: l’intelligenza artificiale sta diventando “agentica”, ovvero capace di agire, e per farlo in sicurezza servono nuovi guardrail.

Peccato che la sicurezza di cui parlano le Big Tech spesso riguardi più la protezione dei loro profitti legali che la nostra privacy.

Stiamo consegnando le chiavi della nostra identità digitale a sistemi che, come vedremo, hanno dimostrato di avere la stessa discrezione di un elefante in una cristalleria e la sicurezza di un diario segreto chiuso con un lucchetto di plastica.

Il paradosso della sicurezza (o come farsi prendere in giro)

L’ultimo annuncio di Perplexity riguarda uno strumento di sicurezza per agenti, presentato come la panacea per evitare che il vostro assistente AI impazzisca e compri dieci lavatrici invece di una.

Tuttavia, c’è un dettaglio fondamentale che spesso sfugge tra le righe dei comunicati stampa: questi strumenti non sono garanzie, sono disclaimer.

L’azienda sta essenzialmente dicendo: “Noi ci proviamo, ma se va male, sono problemi tuoi”.

Craig Matsumoto, analista senior di SDxCentral, ha centrato il punto con una lucidità disarmante, evidenziando come l’eccessiva fiducia in questi sistemi possa trasformarsi in un boomerang per l’utente finale.

Lo strumento di sicurezza per agenti di Perplexity può aiutare a prevenire che gli agenti facciano qualcosa di dannoso, ma potrebbe anche renderti ridicolo se ti fidi troppo.

— Craig Matsumoto, Senior Analyst presso SDxCentral

Il problema non è solo l’errore tecnico (“allucinazione”), ma la responsabilità.

Quando un agente AI agisce per conto vostro, clicca su “accetto” ai termini di servizio, inserisce la vostra carta di credito e interagisce con server terzi. Se quell’agente viola le regole di una piattaforma o esegue un’azione fraudolenta perché ha interpretato male un prompt, chi ne risponde?

Voi.

L’azienda si lava le mani, forte di un benchmark di ricerca aperto e un modello di rilevamento dei contenuti chiamato BrowseSafe, che teoricamente dovrebbe scansionare i contenuti non sicuri.

Ma “teoricamente” non salva il vostro account Amazon dal ban né il vostro conto in banca da addebiti indesiderati.

È la democratizzazione del rischio: i profitti a loro, le conseguenze a noi.

Un browser colabrodo? Le falle nascoste sotto il cofano

Se l’aspetto legale è preoccupante, quello tecnico è addirittura allarmante.

Perplexity ha spinto molto sul suo browser Comet come interfaccia ideale per questi agenti. Ma cosa succede quando il software che dovrebbe proteggerci diventa il vettore di attacco?

Solo pochi mesi fa, verso la fine del 2025, i ricercatori di sicurezza hanno scoperto che l’architettura stessa di questi agenti apriva voragini nella sicurezza dei dispositivi degli utenti.

SquareX, una società di cybersicurezza, ha rivelato come le API utilizzate da Comet permettessero a estensioni nascoste di eseguire comandi direttamente sul dispositivo dell’utente.

La risposta di Perplexity è stata quella di rilasciare un aggiornamento silenzioso per disabilitare le API MCP dopo che i ricercatori avevano esposto gravi falle, il tutto mentre pubblicamente definivano il report “falso”.

Un comportamento che denota, eufemisticamente, una certa opacità nella gestione delle crisi.

Non si tratta di casi isolati. Subho Halder, CISO di Appknox, ha lanciato un avvertimento che dovrebbe far tremare chiunque utilizzi queste app per gestire dati sensibili o aziendali.

I nostri test evidenziano vulnerabilità critiche in Perplexity AI che espongono gli utenti a una serie di rischi, tra cui furto di dati, ingegneria inversa e sfruttamento. È fondamentale che gli sviluppatori affrontino questi problemi rapidamente.

— Subho Halder, Co‑Founder e Chief Information Security Officer (CISO) di Appknox

Stiamo parlando di furto di dati e sfruttamento del dispositivo.

In un’era in cui il GDPR impone la privacy by design, sembra che qui siamo di fronte a una privacy by disaster.

L’approccio “muoviti velocemente e rompi le cose” di Zuckerbergiana memoria è stato adottato in pieno, solo che le “cose” che si rompono ora sono le nostre difese contro il malware e l’esfiltrazione di dati personali.

Tra furto di dati e regolamenti ignorati

C’è poi l’elefante nella stanza: il modello di business.

Per funzionare, questi agenti devono “mangiare” dati. Devono leggere il web, scansionare siti, ignorare i robots.txt (i cartelli “non entrare” del web) e spesso simulare di essere umani per non farsi bloccare.

È un gioco del gatto e del topo che ha già portato a scontri legali titanici.

Amazon, per esempio, non ha gradito che gli agenti di Perplexity facessero shopping simulando comportamenti umani, inviando una lettera di diffida in cui si intimava di smettere di utilizzare agenti per acquisti non autorizzati.

Perché è importante?

Perché dimostra che l’intero ecosistema si regge su una zona grigia legale.

Se Amazon decide che l’agente che state usando sta violando i termini di servizio (e tecnicamente lo sta facendo, mascherandosi da browser standard), il vostro account viene chiuso. L’agente AI se ne lava le mani, Perplexity cita i suoi disclaimer, e voi restate fuori dalla porta.

In Europa, con l’AI Act ormai pienamente operativo e le scadenze del 2026 alle porte, la situazione è ancora più critica.

Gli esperti legali di heyData hanno sottolineato come, senza audit pubblici e protezioni contro le prompt injection, dimostrare la conformità sia quasi impossibile. Usare questi strumenti in ambito aziendale oggi equivale a camminare su un campo minato normativo senza metal detector.

La domanda che dobbiamo porci, quindi, non è se questi agenti funzionino o meno.

La domanda è: a chi giova questa fretta?

Giova agli investitori che vogliono vedere la prossima “next big thing” dopo la saturazione dei chatbot testuali. Giova alle aziende che addestrano i loro modelli sui nostri comportamenti di navigazione.

Ma all’utente?

All’utente resta la comodità illusoria di un clic in meno, pagata al prezzo di una sorveglianza costante e di una vulnerabilità strutturale.

Siamo disposti a diventare i beta-tester non retribuiti di un sistema che, nel tentativo di semplificarci la vita, rischia di esporla ai quattro venti?

Forse, prima di chiedere all’AI di “fare tutto per noi”, dovremmo chiederci se siamo pronti a pagarne il conto quando le cose andranno inevitabilmente storte.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie