Editori contro Perplexity AI: la guerra legale che ridefinisce il giornalismo nell’era dell’IA
La battaglia legale è stata aperta dal New York Times e da una coalizione di altre testate, che accusano Perplexity AI di costruire il proprio modello di business sull’appropriazione indebita di milioni di articoli protetti da copyright, minacciando la sostenibilità del giornalismo.
Il motore di ricerca che risponde alle domande degli utenti con paragrafi sintetici e citazioni, invece che con una lista di link blu, è diventato in pochi anni il sogno proibito di molti.
Ma per i grandi editori di notizie, quel sogno si è rapidamente trasformato in un incubo da miliardi di dollari.
L’ultimo capitolo di questa battaglia si è aperto a fine 2025, quando il New York Times ha fatto causa a Perplexity AI, la startup valutata 20 miliardi di dollari, accusandola di aver copiato e distribuito illegalmente milioni di suoi articoli.
Non è sola: una coalizione che include The Intercept, Raw Story, AlterNet, Forbes, il Chicago Tribune e i colossi di News Corp come il Wall Street Journal e il New York Post ha intentato cause simili.
L’accusa di fondo è sempre la stessa: Perplexity sta costruendo il suo business, presentato come il futuro della ricerca, scaricando sistematicamente contenuti protetti da copyright senza pagare un centesimo a chi li produce.
Per le testate, questa non è una semplice disputa legale.
È una minaccia esistenziale che mette in discussione il loro stesso modello di sopravvivenza nell’era dell’intelligenza artificiale.
La posta in gioco diventa chiara quando si guarda a come funziona Perplexity sotto il cofano.
Il servizio non si limita a indicizzare link.
Quando un utente fa una domanda, il sistema combina la potenza di modelli linguistici avanzati (presi in prestito da aziende come OpenAI e Anthropic) con una ricerca in tempo reale sul web.
I suoi crawler, come il “PerplexityBot”, setacciano internet per raccogliere informazioni aggiornate da milioni di pagine.
Questi contenuti vengono poi processati, sintetizzati e presentati all’utente in una risposta compatta, con piccoli numeri in apice che rimandano alle fonti.
L’idea è nobile: dare una risposta immediata e verificabile, “saltando” la fatica di aprire dieci schede del browser.
Ma è proprio quel “saltare i link” a fare arrabbiare gli editori.
Perché se l’utente trova già il succo dell’articolo, completo di dati e citazioni, direttamente nella risposta di Perplexity, che incentivo ha a cliccare sul sito originale?
Il traffico web, che si traduce in abbonamenti e pubblicità, evapora.
Uno studio citato dal New York Times sostiene che i motori di ricerca basati su IA invierebbero il 96% di traffico in meno verso i siti di notizie rispetto a un motore tradizionale come Google.
L’accusa: non solo copia, ma anche contraffazione
Le cause legali dipingono un quadro di un’appropriazione su scala industriale.
Il New York Times accusa Perplexity di aver usato bot sofisticati per scaricare illegalmente milioni di articoli protetti da paywall, ignorando deliberatamente i file “robots.txt” che i siti usano per dichiarare cosa non può essere copiato.
Ma il danno, sostengono gli editori, non è solo economico.
È anche reputazionale.
Le cosiddette “allucinazioni” dell’IA – il termine tecnico per quando un modello inventa fatti – diventano un boomerang per le testate.
Perplexity, secondo le accuse, a volte genera informazioni false e le attribuisce erroneamente a fonti autorevoli come il Wall Street Journal, macchiandone la credibilità.
News Corp, nel suo atto legale, non usa mezzi termini: definisce le pratiche di Perplexity una vera e propria “cleptocrazia dei contenuti”.
La Perplexity, sconcertante, ha copiato volutamente copiose quantità di materiale protetto da copyright senza compenso, e presenta sfacciatamente il materiale rielaborato come un sostituto diretto della fonte originale.
— Robert Thomson, Amministratore Delegato di News Corp
Dall’altra parte della trincea, Perplexity e il suo giovane CEO Aravind Srinivas difendono la loro posizione appellandosi al “fair use” (uso equo), un principio cardine del diritto d’autore americano che permette l’utilizzo di materiale protetto per scopi come la critica, il commento o la ricerca.
La loro tesi è che sintetizzare informazioni da fonti pubbliche per creare una nuova risposta costituisca un’opera “trasformativa”, non una semplice copia.
Inoltre, sottolineano di offrire sempre le citazioni, permettendo all’utente di risalire alla fonte.
Sul suo sito, Perplexity spiega che raccoglie dati per migliorare i suoi algoritmi rispettando linee guida rigorose e che i dati aziendali non vengono mai usati per addestrare modelli.
Hanno anche lanciato un “Programma Editori” per condividere parte dei ricavi pubblicitari con alcuni partner.
Ma per le testate che hanno sporto denuncia, questi sforzi sono troppo poco, troppo tardi, e non cancellano il presunto atto iniziale di appropriazione indebita.
Una guerra legale che sta definendo il futuro dell’informazione
Quello in corso non è uno scontro isolato, ma il fronte più caldo di una guerra globale.
Dall’altra parte dell’oceano, editori giapponesi come Nikkei e Asahi Shimbun chiedono milioni di dollari di risarcimento.
In Francia, Google è stato multato pesantemente per aver addestrato la sua IA su contenuti giornalistici senza trasparenza.
Negli Stati Uniti, il dibattito sul “fair use” si sta infiammando in dozzine di aule di tribunale.
Un giudice federale, pur assolvendo Meta in una causa simile, ha ammesso che la questione di fondo – se addestrare un’IA con materiale coperto da copyright sia legale – è tutt’altro che risolta.
Il rischio, per l’intero settore, è un paradosso tragico: la tecnologia che promette di democratizzare l’accesso alla conoscenza potrebbe, nel farlo, distruggere l’economia di chi quella conoscenza la produce in prima istanza.
La domanda finale, quindi, non è solo se Perplexity abbia violato la legge.
È più profonda: in un mondo in cui l’IA diventa il nostro intermediario primario con l’informazione, chi pagherà per il giornalismo di qualità?
Le risposte sintetiche degli assistenti digitali, per quanto comode, non nascono dal nulla.
Sono il distillato di un lavoro di reporting, verifica e analisi che ha un costo.
Gli accordi di licenza che grandi player come OpenAI stanno iniziando a stipulare con alcuni editori potrebbero essere una strada, ma sono accessibili solo ai giganti.
Per il resto dell’ecosistema informativo, la partita è aperta.
L’esito di queste cause legali non deciderà solo le sorti di una startup.
Sta scrivendo le regole per come l’intelligenza artificiale e la società dell’informazione potranno coesistere, senza che l’una divori l’altra.
Perplexity si presenta come una guida per navigare la complessità del web, ma la vera complessità che deve affrontare è etica ed economica: come costruire un futuro della ricerca che non lasci indietro le stesse fonti che rendono la ricerca possibile.