Britannica denuncia Perplexity AI per loghi su risposte AI false.

Britannica denuncia Perplexity AI per loghi su risposte AI false.

La causa si concentra sull’accusa che l’AI associ il marchio a risposte inesatte, creando una falsa garanzia di autorevolezza per gli utenti

La prossima volta che chiederai a un’intelligenza artificiale di spiegarti la teoria della relatività o di raccontarti la storia della Rivoluzione francese, fai caso a quei piccoli loghi che compaiono accanto alla risposta. Potrebbero essere lì per rassicurarti, per dirti che l’informazione proviene da una fonte autorevole, come l’Enciclopedia Britannica.

Ma cosa succede se quella risposta, pur sfoggiando il marchio di una delle istituzioni editoriali più rispettate al mondo, contiene errori grossolani inventati dall’AI?

È proprio questa la domanda al centro di una battaglia legale che potrebbe ridisegnare le regole del gioco per i cosiddetti “motori di risposta”.

Lo scorso settembre, il Britannica Group, che pubblica sia l’Enciclopedia Britannica che il dizionario Merriam-Webster, ha citato in giudizio Perplexity AI presso la Corte Distrettuale degli Stati Uniti per il Distretto Meridionale di New York. L’accusa è duplice: violazione sistematica del copyright e uso illecito del marchio.

Ma mentre la questione dello scraping di contenuti protetti per addestrare i modelli è un fronte caldo ormai noto, la parte relativa ai marchi introduce una complicazione nuova e insidiosa.

Britannica sostiene che Perplexity non solo copia i suoi articoli, ma li associa al proprio logo in contesti che possono fuorviare gli utenti, soprattutto quando l’AI “allucina” e produce informazioni false.

Perplexity si definisce il “primo motore di risposte al mondo”, ma le risposte che fornisce ai consumatori sono spesso le risposte della Britannica

— Jorge Cauz, Amministratore Delegato di Britannica Group

La causa, depositata il 10 settembre 2025, delinea una pratica che Britannica descrive come uso diffuso, consapevole e illegale dei contenuti verificati dall’uomo di Britannica.

L’azienda storica accusa Perplexity di aver costruito il suo servizio “free-riding” sul proprio lavoro editoriale, sottraendo al contempo traffico web e, quindi, ricavi da abbonamenti e pubblicità.

Ma è la questione del marchio a colpire nel segno della percezione pubblica.

Immagina di chiedere a Perplexity una definizione e di ricevere una risposta sbagliata o fuorviante, presentata accanto al distintivo blu e rosso di Merriam-Webster.

L’associazione, seppur involontaria, è immediata: l’utente medio potrebbe pensare che l’errore provenga dalla fonte attendibile, non dall’algoritmo che la cita.

Quando la citazione diventa una falsa garanzia

Il modello di Perplexity si basa su un’idea semplice e potente: invece di fornire una lista di link, sintetizza una risposta coesa attingendo da diverse fonti sul web, che poi cita in fondo. Queste citazioni spesso includono il logo del sito di provenienza.

È un design che punta a costruire fiducia attraverso la trasparenza delle fonti.

Tuttavia, il sistema non è perfetto. Può succedere che la sintesi contenga errori (le famose “allucinazioni”) o che ometti parti cruciali di un articolo, pur presentando il logo della fonte originale accanto a una risposta parziale o distorta.

Britannica sostiene che questa pratica confonda e inganni gli utenti di Perplexity, portandoli a credere falsamente che le informazioni inesatte siano associate, sponsorizzate o approvate dalla loro azienda.

In un’epoca in cui la disinformazione è una minaccia costante, il danno reputazionale per un’istituzione che ha costruito la sua fama sull’accuratezza potrebbe essere significativo.

Non si tratta più solo di rubare contenuti, ma di usurpare l’autorità che quei contenuti rappresentano.

La mossa legale di Britannica non arriva in un vuoto normativo. Perplexity aveva già ricevuto lettere di diffida da colossi come il New York Times e la BBC per presunte violazioni del copyright.

Tuttavia, questa causa aggiunge un tassello fondamentale: sposta il dibattito dal campo del “fair use” (l’uso equo dei contenuti protetti) a quello della tutela del consumatore e dell’identità del marchio.

È lecito per un’AI usare il logo di un’editoria per abbellire e avvalorare una sua risposta, soprattutto quando quella risposta potrebbe essere sbagliata?

La legge sui marchi è pensata per prevenire confusione nel mercato. Britannica sostiene che qui la confusione è proprio sull’affidabilità dell’informazione.

La difesa (e le contraddizioni) dell’ai

Dall’altra parte, Aravind Srinivas, CEO di Perplexity, ha sempre difeso l’approccio della sua azienda, descrivendo le citazioni come la “valuta” del suo motore di ricerca. In diverse interviste ha paragonato la pratica a quella del giornalismo, dove nuovi articoli fanno riferimento a fonti primarie.

Perplexity ha anche lanciato un programma di revenue sharing per gli editori e strumenti per segnalare risposte inaccurate, nel tentativo di costruire un rapporto più collaborativo con il mondo dei contenuti.

Tuttavia, queste iniziative cozzano con le accuse di un crawling aggressivo che ignora i protocolli come il “robots.txt”, progettati proprio per dire ai bot quali pagine non visitare.

La tensione è tra due visioni opposte: da un lato, le aziende AI che vedono il web aperto come un database da cui attingere per creare un prodotto superiore; dall’altro, gli editori che considerano il loro lavoro intellettuale e la loro reputazione come beni da proteggere, non come materie prime gratuite.

La posta in gioco va ben oltre i possibili danni economici che un tribunale potrebbe assegnare a Britannica.

Si tratta di stabilire un precedente su come l’autorità e la fiducia, beni immateriali costruiti in secoli di attività editoriale, vengono trasferiti (o meno) nell’era delle macchine che apprendono.

Se un’AI può liberamente “indossare” i loghi delle fonti che utilizza, anche in modo imperfetto, rischiamo di erodere il significato stesso di quelle icone.

L’utente finale, alla ricerca di una risposta veloce, sarà sempre in grado di distinguere tra la garanzia di un editore umano e la semplice decorazione algoritmica di un’allucinazione plausibile?

La risposta, per ora, non è nel database di Perplexity, ma nelle aule di tribunale.

Questa causa potrebbe costringere i motori di risposta a ripensare radicalmente il loro design, forse separando chiaramente le fonti citate dal contenuto generato, o a negoziare accordi di licenza non solo per i testi, ma anche per l’uso dei simboli che li rappresentano.

Nel frattempo, la prossima volta che vedi un logo familiare accanto a una risposta dell’AI, vale la pena ricordare: potrebbe essere lì per informarti, o semplicemente per rassicurarti.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie