Perplexity lancia Computer per le aziende mentre gli agenti AI perdono dati
Perplexity lancia Computer per le aziende, ma la sicurezza degli agenti AI è in discussione dopo che OpenClaw ha esposto dati sensibili.
Lo strumento orchestrerà 19 modelli diversi, ma il caso OpenClaw ha già mostrato i rischi per la sicurezza dei dati.
Poco più di tre settimane fa, il 25 febbraio, Perplexity ha presentato il nuovo strumento AI Computer, descritto come un’area di lavoro digitale condivisa pensata per i non esperti. Un annuncio che suona quasi benevolo: democratizzare gli agenti AI, mettere la potenza dei modelli di frontiera nelle mani di chi non sa programmare. Ma c’è un dettaglio che stona, e vale la pena dirlo subito: mentre Perplexity comunica il proprio slancio verso il mercato enterprise, nel panorama degli agenti AI open-source circola già OpenClaw, uno strumento che ha già fatto trapelare chiavi API e credenziali in testo semplice. La domanda — scomoda — è questa: perché puntare all’enterprise proprio adesso, quando la sicurezza degli agenti AI sembra ancora un cantiere aperto?
Il paradosso del non esperto che punta all’enterprise
Computer è stato presentato come uno strumento per abbassare la soglia di accesso agli agenti AI: non un prodotto per sviluppatori, ma qualcosa di più simile a una scrivania condivisa, dove un utente qualunque può delegare compiti complessi a un sistema intelligente. Stando a quanto riportato da Fortune, il CEO di Perplexity Aravind Srinivas ne ha parlato come di «un tentativo di trasformare gli attuali strumenti agente potenti ma intimidatori in qualcosa di più vicino a uno spazio di lavoro digitale condiviso che i non esperti possano effettivamente usare». Fin qui, tutto comprensibile. Il problema è il contesto in cui questo lancio avviene.
OpenClaw — agente AI autonomo gratuito e open-source sviluppato da Peter Steinberger, balzato alla popolarità alla fine di gennaio 2026 — dimostra cosa può succedere quando si dà a un software agente accesso ai sistemi di un utente. Secondo il rapporto Cisco sulla sicurezza degli agenti AI personali, OpenClaw può eseguire comandi shell, leggere e scrivere file ed eseguire script direttamente sul computer dell’utente. E non è teoria: ha già esposto dati sensibili. In un contesto del genere, Perplexity annuncia che Computer sarà disponibile a breve anche per gli utenti Enterprise Max. Aziende, dati aziendali, credenziali corporate. Il salto di scala è evidente. Lo è anche la posta in gioco.
Dietro le quinte: orchestrazione multi-modello e rischi nascosti
Per capire cosa c’è davvero sotto il cofano di Computer, bisogna guardare ai numeri. Lo strumento non si appoggia a un singolo modello AI, ma ne orchestra ben 19 in parallelo sul backend. Stando alla fonte originale di Fortune, tra questi figurano Claude Opus 4.6 per orchestrazione e coding, Google Gemini per la ricerca approfondita, Google Nano Banana per le immagini, Google Veo 3.1 per i video, Grok di xAI per i compiti leggeri ad alta velocità, e ChatGPT 5.2 per il richiamo di contesti lunghi e la ricerca ampia. È un’architettura ambiziosa, forse la più articolata nel segmento consumer-enterprise. Ma ogni modello aggiunto è anche una superficie di attacco in più, un punto di integrazione potenzialmente vulnerabile, una credenziale da proteggere.
La filosofia dichiarata di Perplexity è esplicita: secondo il blog ufficiale di Perplexity, «tutto ciò che costruisce Perplexity è sempre stato model-agnostic. Scelta e controllo sono essenziali per ottenere risultati migliori». È un posizionamento chiaro contro i modelli chiusi dei concorrenti. Ma è anche una scelta che implica complessità gestionale: 19 modelli che comunicano tra loro, con dati che transitano tra sistemi di provider diversi — Google, Anthropic, OpenAI, xAI — in contesti enterprise dove il GDPR e le normative sulla protezione dei dati impongono requisiti stringenti sulla localizzazione e il trattamento delle informazioni. Chi ha la responsabilità quando un dato sensibile viene processato dal modello sbagliato? Chi risponde all’autorità di controllo?
E qui emerge la tensione più difficile da ignorare. Perplexity non è nata come player enterprise. Ha costruito la propria reputazione avvolgendo modelli di frontiera in interfacce familiari — il suo servizio di risposta simile a un motore di ricerca era il prodotto di punta. Poi, nell’estate del 2025, è arrivato Comet, il browser web. Ora Computer. La traiettoria è chiara: Perplexity si sta muovendo verso prodotti sempre più profondi, sempre più integrati con i sistemi degli utenti. Il passaggio da strumento di ricerca consumer a piattaforma di agenti AI enterprise non è solo una questione di mercato: è un cambio di responsabilità. E la domanda che nessuno ha ancora risposto è se l’infrastruttura di sicurezza stia crescendo alla stessa velocità dell’ambizione commerciale.
Chi vincerà la corsa agli agenti AI?
OpenAI Codex è stato lanciato come anteprima di ricerca nel maggio 2025, e da allora compete in un mercato già affollato con Claude Code di Anthropic e Cursor. Perplexity entra in questo segmento con un differenziatore dichiarato — l’orchestrazione multi-modello — ma con una storia più breve nel servire clienti enterprise e con domande aperte sulla sicurezza che il caso OpenClaw ha reso impossibili da ignorare. Gli utenti Enterprise Max, che pagano per affidare flussi di lavoro aziendali a uno strumento AI, hanno bisogno di garanzie che vanno ben oltre le promesse di un blog di lancio. In un mercato dove il controllo model-agnostic è presentato come vantaggio competitivo, il vero banco di prova sarà vedere chi riesce a tradurre quella flessibilità in affidabilità certificabile. E chi, invece, pagherà il prezzo degli errori di sicurezza che nessuno — neppure con 19 modelli — ha ancora imparato a evitare del tutto.