Antitrust Giapponese Indaga sui Motori di Ricerca AI e lo Sfruttamento dei Contenuti
L’antitrust giapponese indaga sui motori di ricerca AI per “vampirismo di contenuti”, aprendo un potenziale scontro con Google, Microsoft e OpenAI
Proprio mentre mezzo mondo è impegnato a scartare regali e ingozzarsi di panettone, dall’altra parte del globo qualcuno ha deciso di servire un piatto decisamente indigesto alle grandi sorelle della tecnologia.
La Japan Fair Trade Commission (JFTC), l’autorità antitrust giapponese, ha scelto questo 25 dicembre 2025 per annunciare quello che in molti sospettavamo da tempo, ma che pochi avevano il coraggio di formalizzare: un’indagine approfondita sui motori di ricerca basati sull’intelligenza artificiale.
E no, non si tratta della solita tirata d’orecchie formale che si risolve con una multa che per Google o Microsoft equivale agli spiccioli persi nei cuscini del divano.
Qui la questione è strutturale e tocca il nervo scoperto dell’intero ecosistema digitale attuale: il vampirismo dei contenuti. Per anni ci siamo sentiti raccontare la favola dell’AI che “impara” a leggere e scrivere, omettendo comodamente il dettaglio che per imparare ha dovuto scroccare l’intera biblioteca del giornalismo mondiale senza pagare la tessera.
L’indagine punta il dito contro colossi come Google, Microsoft, OpenAI, Perplexity e la locale LY Corp, accusati sostanzialmente di aver costruito i propri imperi di risposte automatiche sulle spalle (e sui server) degli editori, senza chiedere permesso e, soprattutto, senza tirare fuori un yen.
Il problema non è tecnico, è brutalmente economico e di potere.
Se l’AI legge le notizie al posto tuo e ti fornisce un riassunto perfetto nella barra di ricerca, perché mai dovresti cliccare sul sito del giornale che ha pagato il giornalista per scriverla?
È il paradosso del “traffic substitution”: le Big Tech promettono di portare utenti, ma finiscono per trattenerli nel loro recinto dorato. L’autorità giapponese sembra aver capito che siamo di fronte a un potenziale abuso di posizione dominante, dove chi controlla l’accesso all’informazione decide anche chi sopravvive e chi chiude.
Il furto legalizzato delle “risposte pronte”
Per capire la gravità della situazione, bisogna smettere di guardare l’AI come una magia e iniziare a guardarla come un modello di business. I nuovi motori di ricerca non si limitano più a indicizzare: generano. Prendono un articolo di inchiesta, lo masticano, lo digeriscono e rigurgitano una sintesi pulita per l’utente frettoloso.
Comodo? Certamente. Etico? Discutibile. Legale? È quello che il Giappone vuole accertare.
La JFTC non si sta muovendo alla cieca. L’indagine nasce dalla preoccupazione che l’utilizzo di articoli di notizie senza autorizzazione potrebbe violare le leggi antitrust giapponesi.
Non stiamo parlando di violazione del diritto d’autore in senso stretto – terreno scivoloso dove le Big Tech hanno eserciti di avvocati – ma di “abuso di posizione contrattuale superiore“.
In pratica: tu sei piccolo, io sono il gigante che controlla il traffico web, quindi o accetti che io usi i tuoi contenuti gratis, o scompari dall’internet.
È una dinamica che conosciamo bene anche in Europa, ma vedere un regolatore asiatico muoversi con questa decisione segna un cambio di passo. Hiroo Iwanari, Segretario Generale della JFTC, non ha usato mezzi termini nel sottolineare l’urgenza di un intervento che non rincorra la tecnologia quando è ormai troppo tardi.
L’IA generativa si sta evolvendo rapidamente, richiedendo un esame attento per stare al passo con il cambiamento tecnologico.
— Hiroo Iwanari, Segretario Generale della Japan Fair Trade Commission
Questa frase nasconde una verità scomoda: le autorità sanno di essere lente. Mentre i regolatori scrivono bozze, le aziende rilasciano tre nuove versioni dei loro modelli. Ma l’approccio giapponese sembra voler anticipare i danni irreversibili al mercato editoriale, piuttosto che piangere sul latte versato tra dieci anni.
Fact-finding o avvertimento mafioso?
Ufficialmente, l’autorità definisce questa mossa come un’indagine conoscitiva. Non ci sono ancora imputati alla sbarra, ma il messaggio è chiaro: vi stiamo osservando.
Le aziende coinvolte dovranno spiegare come funzionano i loro algoritmi di ranking, come vengono selezionate le fonti e, dettaglio cruciale, se favoriscono i propri servizi a discapito di quelli dei concorrenti o degli editori originali.
Un portavoce della commissione ha cercato di abbassare i toni, specificando che l’indagine mira a raccogliere fatti sui motori di ricerca che utilizzano l’intelligenza artificiale generativa, piuttosto che a lanciare una repressione immediata.
Ma non fatevi ingannare dal linguaggio diplomatico. “Raccogliere fatti” nel gergo antitrust significa accumulare munizioni per le future battaglie legali.
Il punto critico è la trasparenza. Oggi, quando chiedete a un’AI “chi ha vinto le elezioni” o “perché l’inflazione sale”, ricevete una risposta che sembra oggettiva, quasi divina. Ma quella risposta è frutto di una selezione opaca.
Quali fonti sono state usate? Quali sono state scartate? E soprattutto, l’AI sta citando la fonte o se ne sta appropriando?
Se l’informazione diventa una commodity scollegata dalla sua origine, il giornalismo investigativo – quello costoso, faticoso e necessario – diventa insostenibile.
C’è poi l’aspetto della privacy, che non manca mai quando si parla di questi giganti. Per personalizzare queste risposte “perfette”, i motori di ricerca devono conoscere l’utente meglio di quanto l’utente conosca se stesso.
L’integrazione delle news nei risultati AI non è solo un problema per gli editori, è un problema per i cittadini: la nostra dieta informativa viene pre-masticata da algoritmi il cui unico scopo è massimizzare il tempo che passiamo sulla piattaforma, non la nostra comprensione del mondo.
La ribellione degli editori (e perché ci riguarda)
Non è un caso che questa indagine arrivi dopo mesi di proteste vibranti da parte degli editori giapponesi. La Japan Newspaper Publishers and Editors Association (JNPEA) ha lanciato l’allarme tempo fa: se l’AI riassume tutto, i siti di news muoiono. E se i siti di news muoiono, l’AI non ha più nulla da riassumere.
È il serpente che si morde la coda, ma nel frattempo il serpente è diventato grasso e gli editori sono scheletrici.
Un esempio concreto arriva da Kyodo News, una delle principali agenzie di stampa giapponesi, che non si è limitata a lamentarsi ma ha agito. Recentemente Kyodo News ha presentato un reclamo formale sostenendo che i suoi articoli venivano utilizzati senza permesso.
Questo è il tipo di “pistola fumante” che i regolatori cercano. Non si tratta di teorie astratte sul futuro dell’umanità, ma di aziende che vedono il proprio prodotto rubato e rivenduto (o regalato) in una nuova confezione scintillante.
L’indagine non è intesa come un giro di vite, ma piuttosto per ottenere una migliore comprensione della situazione.
— Funzionario della Japan Fair Trade Commission
Questa dichiarazione suona quasi ironica. “Comprendere la situazione” potrebbe rivelare che il modello di business dell’AI generativa consumer-facing è, nella sua attuale iterazione, parassitario per definizione.
Se Google e OpenAI dovessero pagare equamente per ogni pezzo di informazione che i loro modelli ingeriscono e rielaborano, i costi di gestione di questi servizi schizzerebbero alle stelle, mettendo in crisi le valutazioni miliardarie di cui si vantano a Wall Street.
Siamo di fronte a un bivio fondamentale.
Da una parte c’è la promessa di un accesso alla conoscenza fluido, immediato e conversazionale. Dall’altra c’è la realtà economica di chi quella conoscenza la produce.
L’indagine giapponese solleva il velo su un’ipocrisia di fondo: le Big Tech si presentano come salvatori dell’informazione mentre ne erodono le fondamenta economiche. Se l’antitrust deciderà che l’uso non autorizzato dei contenuti per addestrare e alimentare le AI costituisce un abuso di posizione dominante, potremmo assistere a un effetto domino globale. L’Europa osserva interessata, gli Stati Uniti (forse) meno, ma il precedente sarebbe stabilito.
La domanda che dovremmo porci non è se l’AI sia utile, ma chi paga il conto per questa utilità.
Fino ad oggi, il conto l’hanno pagato gli editori con i loro contenuti e noi utenti con i nostri dati. Forse è arrivato il momento che qualcuno presenti lo scontrino a chi sta banchettando gratis da troppo tempo.
O forse, come spesso accade, tutto finirà con un accordo riservato, qualche milione di dollari di “contributo all’editoria” e il business continuerà come prima, solo con una facciata un po’ più pulita.