Perplexity ha perso il primo round contro Amazon
Perplexity AI ha perso la prima battaglia legale contro Amazon. Un tribunale federale ha stabilito che l'accesso di agenti AI a siti web richiede l'autorizzazione del titolare del servizio, non solo dell'utente.
La corte ha stabilito che il consenso dell’utente non autorizza l’accesso automatizzato ai server di terzi.
Il 1° aprile 2026, Perplexity AI ha depositato il suo brief di apertura presso la Corte d’Appello degli Stati Uniti per il Nono Circuito, cercando di ribaltare un’ingiunzione preliminare che le impedisce di accedere ai server di Amazon con il suo browser Comet. La data è quasi ironica, ma il problema è serissimo: per la prima volta un tribunale federale americano ha tracciato una linea chiara su cosa significa “accesso non autorizzato” quando a bussare non è un utente umano, ma un agente AI che ne simula i comportamenti.
L’accesso invisibile: come Comet sfida i limiti del web
Perplexity Comet è uno dei browser AI più rilevanti del panorama 2026: il suo punto di forza non è la velocità di rendering, ma la capacità di restituire risposte ricche di citazioni da fonti multiple, sostituendo di fatto la ricerca tradizionale con un’interfaccia conversazionale. Pensatelo come un layer AI sopra un Chromium-based engine, capace di navigare autonomamente le pagine, estrarre dati strutturati e — questo è il punto controverso — completare azioni per conto dell’utente, incluso l’aggiunta di articoli al carrello su Amazon.
Il problema tecnico è preciso: per operare su siti che bloccano i bot tramite user-agent detection, fingerprinting del browser o CAPTCHA, un agente come Comet deve rendere la propria firma digitale indistinguibile da quella di un browser umano. Amazon ha accusato Perplexity di fare esattamente questo — mascherare l’attività dell’AI come navigazione umana, accedendo segretamente agli account dei clienti. Dal punto di vista implementativo, è una scelta di design comprensibile: se vuoi che il tuo agente AI funzioni sul web reale, devi superare le difese anti-bot. Ma se quella scelta viola la legge, la sua eleganza tecnica non conta nulla.
La sentenza che smantella il gioco
Already a novembre 2025, Amazon aveva intentato una causa federale contro Perplexity, accusando la startup di aver preso misure per “nascondere” i suoi agenti AI così da continuare a fare scraping del sito senza approvazione. La risposta giudiziaria è arrivata il 9 marzo 2026, quando il giudice distrettuale Maxine M. Chesney ha emesso un’ingiunzione preliminare che ha bloccato temporaneamente Perplexity dall’accesso al sito di Amazon tramite Comet.
Il passaggio legalmente più significativo della decisione — e quello che dovrebbe far riflettere chiunque sviluppi agenti AI — riguarda la questione del consenso. Il ragionamento di Perplexity era intuitivo: se un utente installa Comet e lo autorizza ad agire per suo conto sul web, quell’autorizzazione si trasmette transitivamente ai siti visitati. In altri termini: se io posso entrare su Amazon, e io delego Comet, allora Comet può entrare al posto mio. Il tribunale ha respinto questa lettura. Stando a un’analisi approfondita della decisione pubblicata da Cooley, il giudice ha stabilito che l’accesso di Comet non era autorizzato da Amazon, indipendentemente da qualsiasi permesso concesso dall’utente. Il consenso dell’utente finale non costituisce autorizzazione da parte del servizio terzo.
Questo è il punto tecnico-legale più sottile dell’intera vicenda. Nel modello mentale di molti sviluppatori, un browser agent che agisce per conto di un utente autenticato sta semplicemente automatizzando gesti che quell’utente potrebbe compiere manualmente. Ma il tribunale introduce una distinzione diversa: il titolare del servizio — Amazon in questo caso — ha il diritto di stabilire chi o cosa può accedere alla sua piattaforma, e quella decisione non può essere aggirata delegando a un software. È una lettura che potrebbe cambiare radicalmente l’architettura degli agenti AI che operano su servizi di terze parti.
Chi è responsabile quando l’AI sbaglia?
La sentenza risolve una disputa specifica, ma apre una questione molto più larga. Come evidenziato da un’analisi dell’IAPP sulla responsabilità degli agenti AI , i tribunali saranno presto costretti ad affrontare una domanda deceptively semplice: quando un bot AI infrange le regole, chi è legalmente responsabile? L’azienda che ha sviluppato l’agente? L’utente che l’ha attivato? Il modello linguistico sottostante?
Il contesto competitivo rende la questione ancora più densa. Amazon non è un osservatore neutrale: ha costruito Rufus, il suo assistente conversazionale per lo shopping, che secondo dati del Retail Tech Innovation Hub è stato usato da 250 milioni di acquirenti, con utenti che completano acquisti con una probabilità superiore del 60% rispetto a chi non lo usa, e si proietta a generare oltre 10 miliardi di dollari in vendite incrementali annuali. Amazon ha tutto l’interesse a mantenere il controllo sul canale di acquisto — e bloccare agenti esterni come Comet è coerente con questa strategia. Non a caso, la stessa piattaforma blocca la maggior parte degli scraper AI e riceve significativamente meno traffico referral da sistemi come ChatGPT rispetto ad altri grandi retailer. Il dato è rivelatore: chi controlla il punto di accesso controlla il valore.
Il nodo che resta irrisolto è esattamente quello che la causa ha messo in luce senza rispondere: come deve comportarsi uno sviluppatore che costruisce un agente AI destinato a operare su servizi web di terze parti? La risposta tecnica ovvia — rispettare i file robots.txt, non simulare browser umani, non accedere ad account autenticati senza protocolli espliciti di delega — è anche incompleta. Non esiste ancora uno standard per la “delega autorizzata” tra utenti, agenti AI e servizi web. Protocolli come OAuth gestiscono l’autorizzazione tra applicazioni, ma non sono stati progettati per agenti autonomi che prendono decisioni in tempo reale. Finché quel gap non viene colmato — con standard tecnici condivisi o con giurisprudenza consolidata — chi costruisce AI agents si muove in un territorio dove ogni accesso web è potenzialmente una scelta con conseguenze legali. Integrarle nell’architettura fin dall’inizio non è cautela eccessiva: è ingegneria responsabile.