Perplexity ai: l’intelligenza artificiale rivoluzionerà la sicurezza pubblica?
Perplexity AI offre gratuitamente la sua piattaforma alle forze dell’ordine, promettendo di rivoluzionare l’analisi dei dati e l’efficienza, ma sollevando interrogativi etici e legali sull’affidabilità dell’IA e il rispetto del copyright.
Immaginate di essere un agente di polizia sommerso da centinaia di pagine di rapporti, trascrizioni di bodycam e normative che cambiano ogni settimana.
La realtà del lavoro delle forze dell’ordine è spesso molto meno adrenalinica di un film d’azione e molto più simile a un incubo burocratico. È proprio in questa crepa tra l’efficienza necessaria e la mole di dati ingestibile che si è inserita Perplexity AI, non con un semplice aggiornamento software, ma con un cambio di paradigma che potrebbe ridefinire il concetto stesso di ordine pubblico digitale.
Siamo abituati a vedere l’intelligenza artificiale generativa come uno strumento creativo o di supporto al coding, ma l’8 gennaio scorso qualcosa è cambiato radicalmente. L’azienda ha deciso di offrire gratuitamente il suo servizio Enterprise Pro a tutte le agenzie governative qualificate che si occupano di sicurezza pubblica.
Non stiamo parlando di un semplice motore di ricerca potenziato, ma di una suite capace di analizzare la scena del crimine digitale con una velocità che nessun essere umano potrebbe eguagliare.
Tuttavia, l’entusiasmo per l’innovazione tecnologica si scontra immediatamente con una realtà fatta di zone grigie legali e rischi operativi che non possiamo ignorare.
Perché se un errore in una mail di marketing è imbarazzante, un’allucinazione in un rapporto di polizia può rovinare una vita.
L’assistente digitale con il distintivo
L’aspetto più affascinante di questa mossa non è tanto la tecnologia in sé, quanto la sua applicazione verticale. Perplexity non sta vendendo un chatbot alla polizia; sta fornendo un analista instancabile.
Immaginate di poter caricare i verbali di un incidente, le trascrizioni video e le policy dipartimentali e chiedere: “Basandoti su questi documenti, quali protocolli sono stati violati?”. La risposta arriva in secondi, corredata da citazioni precise.
È la fine del “ctrl+f” e l’inizio dell’interrogazione semantica dei dati.
Per spingere questa adozione, Perplexity ha lanciato ufficialmente “Perplexity for Public Safety”, un programma che offre accesso gratuito per 12 mesi fino a 200 account per agenzia. La piattaforma promette di sintetizzare intelligence sugli incidenti e analizzare scene complesse, fungendo da moltiplicatore di forza per dipartimenti spesso a corto di personale.
Ma come funziona “sotto il cofano”?
La vera magia qui è l’approccio multi-modello. A differenza di chi si chiude nel proprio giardino recintato, Perplexity permette di scegliere quale “cervello” usare – che sia GPT-4, Claude di Anthropic o i propri modelli proprietari. È come avere una squadra di esperti e poter chiedere un secondo parere istantaneo se il primo non ci convince.
E, cosa fondamentale per il settore pubblico, promettono che i dati caricati non verranno mai utilizzati per addestrare i modelli.
La privacy, in questo contesto, non è una feature opzionale: è l’unico modo per evitare che il sistema collassi sotto il peso della sfiducia pubblica.
L’obiettivo è fornire agli operatori della sicurezza pubblica risposte affidabili e citate, supportando il processo decisionale con la sicurezza di livello enterprise che il settore richiede.
— Comunicato ufficiale, Perplexity AI
Eppure, questa generosità nel fornire licenze gratuite nasconde una strategia di posizionamento molto più ampia e, per certi versi, aggressiva.
La corsa all’oro governativo
Non dobbiamo essere ingenui: nessuno regala tecnologia di punta per pura filantropia.
La mossa di gennaio è il culmine di una strategia iniziata mesi fa per accreditarsi come fornitore indispensabile per lo Zio Sam. L’obiettivo è creare una dipendenza operativa talmente profonda che, alla scadenza dei 12 mesi gratuiti, tornare ai vecchi metodi analogici sia impensabile.
È la classica strategia land and expand del mondo SaaS, ma applicata alla sicurezza nazionale.
Il terreno era già stato preparato a novembre 2025, quando la GSA e Perplexity hanno firmato il primo accordo diretto con il governo federale, permettendo alle agenzie federali di acquistare le licenze a un prezzo simbolico per facilitare l’adozione. Questo accordo ha di fatto legittimato l’azienda, togliendole l’etichetta di “startup sperimentale” e appiccicandole quella di “partner istituzionale”.
Questo accreditamento è cruciale perché risolve il problema numero uno dell’AI nel settore pubblico: l’affidabilità percepita. Integrandosi con i sistemi governativi esistenti e rispettando standard come il FedRAMP, Perplexity sta costruendo un fossato difensivo intorno al suo business che sarà difficile da superare per i concorrenti.
Mentre Google e Microsoft combattono per il dominio consumer, Perplexity si sta silenziosamente cablando nelle infrastrutture critiche dello stato.
Ma c’è un elefante nella stanza, ed è grande quanto un’aula di tribunale.
Allucinazioni e diritti d’autore: il lato oscuro
Se da un lato l’efficienza operativa è innegabile, dall’altro ci sono questioni etiche e legali che fanno tremare i polsi. L’utilizzo dell’intelligenza artificiale per generare rapporti di polizia o analizzare prove solleva lo spettro delle “allucinazioni”: risposte plausibili ma completamente inventate.
In un contesto legale, un’allucinazione non è un bug, è una potenziale violazione dei diritti civili.
Se un agente agisce basandosi su una sintesi errata fornita dall’AI, di chi è la colpa?
Inoltre, c’è la questione spinosa della “materia prima”. Perplexity, come molti altri player, è sotto il fuoco incrociato degli editori. News Corp ha recentemente intentato una causa per violazione del copyright, accusando l’azienda di utilizzare contenuti giornalistici protetti per alimentare le sue risposte senza permesso.
Il paradosso è evidente: uno strumento pensato per far rispettare la legge si basa su una tecnologia accusata di violarla.
Se i tribunali dovessero dare ragione agli editori, l’intera architettura su cui si basano questi strumenti di Public Safety potrebbe vacillare. Immaginate un assistente che improvvisamente non può più accedere alle notizie in tempo reale o agli archivi storici perché “non autorizzato”.
Siamo di fronte a un bivio tecnologico. Da una parte, l’opportunità di liberare le forze dell’ordine dalla paralisi burocratica, permettendo loro di concentrarsi sul lavoro sul campo. Dall’altra, il rischio di affidare pezzi critici della giustizia a scatole nere che, per quanto avanzate, rimangono probabilistiche e non deterministiche.
La domanda non è se l’AI entrerà nei commissariati – c’è già – ma se siamo pronti a gestire le conseguenze quando la macchina, inevitabilmente, sbaglierà.