L’Antitrust Giapponese Sfida le Big Tech sull’uso dell’Ia Generativa
L’antitrust giapponese indaga sui giganti della Silicon Valley per il loro utilizzo dell’intelligenza artificiale generativa, accusandoli di sfruttare i contenuti giornalistici a danno degli editori e della sostenibilità dell’informazione
Mentre scartavate i regali sotto l’albero o litigavate con i parenti sul tempo di cottura del panettone, a Tokyo qualcuno ha deciso di servire un piatto decisamente indigesto ai giganti della Silicon Valley.
Il Natale del 2025 potrebbe passare alla storia non per l’ennesimo gadget tecnologico finito nel dimenticatoio, ma per il momento in cui un regolatore ha finalmente detto ad alta voce quello che molti sussurrano da tempo.
L’intelligenza artificiale generativa, per come è costruita oggi, è un parassita economico.
La Japan Fair Trade Commission (JFTC), l’antitrust giapponese, ha lanciato un’indagine che definire “di routine” sarebbe un eufemismo criminale. Nel mirino ci sono i soliti sospetti: Google, Microsoft, OpenAI, la startup del momento Perplexity AI e la locale LY Corp. L’accusa non è nuova, ma il contesto è esplosivo: utilizzare i contenuti giornalistici per addestrare i propri modelli e fornire risposte dirette agli utenti, saltando a piè pari la fonte originale.
Se pensate che sia solo una questione di copyright tra avvocati in giacca e cravatta, vi sbagliate di grosso.
Qui si parla del futuro dell’informazione e, di riflesso, della nostra capacità di sapere cosa accade nel mondo senza il filtro opaco di un algoritmo che nessuno, nemmeno i suoi creatori, comprende fino in fondo. Ma andiamo con ordine, perché il diavolo, come sempre, si nasconde nei dettagli contrattuali.
Il vampirismo digitale e l’abuso di posizione dominante
Il meccanismo è geniale nella sua perversione: le aziende tech creano strumenti che “leggono” tutto il web, imparano dai giornalisti che spendono tempo e risorse per verificare le notizie, e poi offrono all’utente un riassunto pronto all’uso.
Risultato? L’utente non clicca più sul sito di notizie, il giornale perde traffico e introiti pubblicitari, e l’azienda tech incassa l’attenzione (e i dati) dell’utente a costo zero.
È un trasferimento di ricchezza colossale e silenzioso.
La JFTC non sta usando mezzi termini. Non si tratta solo di “fair use” o diritto d’autore; l’autorità sospetta una violazione della legge antimonopolio. In particolare, si sta valutando se le pratiche attuali dei servizi di ricerca basati sull’IA costituiscano un abuso di posizione dominante nelle trattative nei confronti degli editori, costretti ad accettare condizioni capestro pur di non scomparire dai risultati di ricerca.
Hiroo Iwanari, Segretario Generale della JFTC, ha messo il dito nella piaga con una chiarezza disarmante per un burocrate:
Se i servizi di IA riassumono o mostrano articoli di notizie in modo tale da trattenere i lettori sulle loro piattaforme, ciò potrebbe avere un impatto significativo sulla sostenibilità dei media d’informazione.
— Hiroo Iwanari, Segretario Generale della Japan Fair Trade Commission
La parola chiave qui è “sostenibilità”. Se uccidi chi produce il “cibo” (le notizie) di cui ti nutri, prima o poi morirai di fame anche tu.
O peggio, inizierai a nutrirle di spazzatura sintetica generata da altre IA, in un ciclo di degrado cognitivo che in gergo tecnico si chiama “collasso del modello”, ma che noi potremmo chiamare “la fine della verità condivisa”.
Eppure, c’è un’ironia di fondo: mentre l’antitrust affila le armi, il braccio politico del governo giapponese sembra voler correre in direzione opposta.
Schizofrenia normativa: innovare o proteggere?
Il Giappone, come l’Europa e gli Stati Uniti, vive una profonda contraddizione interna. Da un lato c’è il terrore di perdere il treno dell’innovazione e di diventare una colonia digitale; dall’altro, c’è la consapevolezza che lasciare le chiavi di casa a Sam Altman e Sundar Pichai potrebbe non essere l’idea più brillante del secolo.
Non è un caso che, quasi in contemporanea con l’annuncio dell’indagine, il governo abbia adottato il primo piano di base sull’IA con l’obiettivo dichiarato di bilanciare la promozione dell’innovazione tecnologica con una gestione rigorosa dei rischi. È il classico gioco delle tre carte: si promette “IA affidabile” e sicurezza, ma si spinge per l’adozione massiccia di queste tecnologie.
La domanda che dobbiamo farci, e che raramente viene posta nelle conferenze stampa luccicanti, è: chi definisce cosa è un “rischio accettabile”?
Per le Big Tech, il rischio è una multa (che pagano come fosse un caffè). Per noi cittadini e per l’ecosistema dell’informazione, il rischio è la manipolazione strutturale della realtà.
La JFTC ha già un precedente importante: nel 2023 aveva avvertito le piattaforme sulle condizioni inique nei contratti di distribuzione delle notizie. Oggi, quella diffida sembra un avvertimento gentile prima della tempesta. Le cause legali intentate dagli editori giapponesi non sono più casi isolati, ma la base probatoria di un’indagine che potrebbe costringere Google e compagni a svelare cosa succede davvero dentro le loro scatole nere.
Ma c’è un aspetto ancora più inquietante che spesso sfugge quando ci concentriamo solo sui soldi degli editori.
La privacy è la vittima collaterale (come sempre)
Parliamoci chiaro: quando un’IA “legge” le notizie per riassumerle, non sta solo processando fatti asettici.
Sta processando nomi, storie personali, contesti sensibili. Sta ingerendo dati che, nel contesto di un articolo originale, avevano una tutela e un contesto specifici. Una volta macinati e rigurgitati da un LLM (Large Language Model), quei dati perdono ogni contesto.
Il GDPR in Europa ci ha insegnato (o almeno ci ha provato) che i dati devono essere raccolti per finalità specifiche. Ma qual è la finalità di un’IA che aspira tutto il web?
“Rispondere a tutto”. È una finalità onnipotente che cozza con qualsiasi principio di limitazione e minimizzazione dei dati.
Se la JFTC riuscirà a dimostrare che queste aziende abusano della loro posizione dominante per appropriarsi dei contenuti editoriali, creerà un precedente che va oltre il diritto commerciale. Stabilirà che non si può costruire un impero economico semplicemente prendendo ciò che non è tuo, sia esso un articolo di giornale o i dati personali in esso contenuti.
Iwanari ha sottolineato che l’obiettivo non è sanzionare immediatamente, ma “chiarire”. E qui sta il trucco. Big Tech adora le “aree grigie”. Prospera dove le regole non sono chiare.
Dobbiamo esaminare attentamente se vi siano problemi ai sensi della legge antimonopolio, come l’abuso di una posizione contrattuale superiore, nel rapporto tra le organizzazioni giornalistiche e gli operatori dei servizi di ricerca IA.
— Hiroo Iwanari, Segretario Generale della Japan Fair Trade Commission
“Esaminare attentamente” suona diplomatico, ma nel linguaggio dei regolatori significa che la festa è finita.
O almeno, che qualcuno ha acceso le luci.
Siamo di fronte a un bivio. Da una parte, un futuro in cui l’informazione è un servizio gestito in monopolio da tre o quattro aziende californiane che decidono cosa dobbiamo sapere, riassumendo la complessità del mondo in tre bullet point generati probabilisticamente. Dall’altra, un tentativo disperato di mantenere una pluralità di fonti, dove chi produce informazione viene pagato e chi la legge sa da dove proviene.
La mossa del Giappone è un segnale di fumo in una stanza che sta bruciando.
Resta da vedere se il resto del mondo prenderà l’estintore o se continuerà a scaldarsi le mani al fuoco dell’innovazione senza regole, ignorando che ciò che sta bruciando è il pavimento su cui poggiamo i piedi.