DSA: Google e Meta obbligate alla trasparenza su algoritmi e annunci
L'UE, tramite il DSA, impone trasparenza agli algoritmi di Meta e Google, sfidando la loro "scatola nera" e i modelli opachi.
attraverso il Digital Services Act, l’Unione Europea cerca di imporre una trasparenza senza precedenti ai giganti del web, mettendo in discussione modelli di business costruiti sull’opacità degli algoritmi e sulla pubblicità mirata
Da anni, il funzionamento interno dei grandi social network e dei motori di ricerca è rimasto avvolto in una scatola nera. Gli algoritmi che decidono cosa vediamo, le logiche di moderazione dei contenuti, i criteri per la pubblicità mirata: operazioni fondamentali per la vita digitale, ma gestite con un’opacità che ha alimentato polemiche, teorie del complotto e un diffuso senso di impotenza tra gli utenti.
Ora, l’Unione Europea sta cercando di aprire quella scatola nera con un cacciavite normativo chiamato Digital Services Act (DSA), un regolamento che impone un livello di trasparenza senza precedenti a piattaforme come Facebook e Google. L’obiettivo dichiarato è creare uno spazio digitale più sicuro, ma la partita che si sta giocando è più complessa: è uno scontro tra una visione regolatoria basata sulla trasparenza forzata e modelli di business costruiti sull’opacità e sull’ottimizzazione algoritmica.
Il DSA non è una semplice lista di divieti. È un framework tecnico-legale che impone obblighi di due diligence digitale alle cosiddette “piattaforme online molto grandi” (VLOP) e ai “motori di ricerca online molto grandi” (VLOSE). Questi obblighi si traducono in requisiti concreti e potenzialmente invasivi per le architetture software delle aziende.
Le piattaforme devono ora condurre e documentare valutazioni annuali del rischio sistemico, identificando potenziali minacce alla sicurezza pubblica, ai diritti fondamentali o alla salute mentale dei minori derivanti dal design stesso dei loro servizi. Devono poi implementare misure per mitigare quei rischi.
Soprattutto, devono rendere pubblico il funzionamento dei loro sistemi: come moderano i contenuti, come funzionano gli algoritmi di raccomandazione e chi paga per gli annunci pubblicitari.
La risposta delle Big Tech: adattamento tattico e resistenza strategica
La reazione di Meta e Google è stata un misto di apparente collaborazione e sottile resistenza. Entrambe hanno annunciato di aver mobilitato ingenti risorse per conformarsi. Meta ha dichiarato di aver schierato un team cross-funzionale di oltre mille persone per sviluppare soluzioni e che un audit indipendente avrebbe rilevato una conformità superiore al 90%. Google, dal canto suo, ha affermato di aver adattato i suoi processi di trust and safety e modificato il funzionamento di alcuni servizi, espandendo i suoi report sulla trasparenza e il centro dedicato agli annunci pubblicitari.
In superficie, sembra uno sforzo encomiabile.
Ma guardando ai dettagli implementativi, emergono le crepe. La Commissione Europea ha già avviato procedimenti formali per valutare una possibile violazione del DSA da parte di Meta in aree legate alla protezione dei minori, esprimendo preoccupazione per algoritmi che potrebbero stimolare dipendenze comportamentali.
Ancora più significativa è l’indagine preliminare su un punto cruciale: l’accesso dei ricercatori ai dati.
La Commissione ha riscontrato che Meta e TikTok hanno messo in piedi procedure e strumenti eccessivamente gravosi per i ricercatori, fornendo spesso dati parziali o inaffidabili. Questo vanifica uno dei pilastri del DSA, che mira proprio a permettere alla comunità scientifica di “auditare” dall’esterno i rischi delle piattaforme.
La tensione è palpabile anche sul fronte pubblicitario. Joel Kaplan, Chief Global Affairs Officer di Meta, ha apertamente criticato le normative UE, sostenendo che le azioni della Commissione in materia di Digital Markets Act limitano ingiustamente la pubblicità personalizzata e danneggiano le economie europee.
È qui che si tocca il nervo scoperto: la trasparenza imposta dal DSA rischia di erodere il vantaggio competitivo costruito su algoritmi opachi e su micro-targeting estremo.
Offrire all’utente un’opzione per disattivare la personalizzazione, come Meta dovrà fare, o rivelare i parametri chiave dei sistemi di raccomandazione, significa esporre al pubblico (e ai concorrenti) il cuore del motore che genera profitti.
Il vero banco di prova: enforcement e architettura della trasparenza
La posta in gioco, quindi, non è solo se le aziende pubblicheranno dei report, ma quale sarà la qualità, la granularità e l’effettiva utilizzabilità dei dati che forniranno. Il DSA ha creato strumenti potenti, come il database della trasparenza che raccoglie le motivazioni delle decisioni di moderazione delle piattaforme, rendendole accessibili al pubblico. Google, ad esempio, ha iniziato a pubblicare rapporti semestrali di trasparenza per servizi designati come VLOP.
Ma un PDF di centinaia di pagine è trasparenza?
O è un esercizio di compliance che sposta l’opacità dal funzionamento in tempo reale all’interpretazione di dataset statici e complessi?
L’efficacia del DSA si misurerà sulla capacità della Commissione Europea di far rispettare non solo la lettera, ma lo spirito della legge. Il regolamento prevede multe salate, fino al 6% del fatturato mondiale. La Commissione ha già multato X (ex Twitter) 120 milioni di euro per violazioni del DSA, dimostrando di non avere remore.
Ma la sfida tecnica è enorme.
Come si verifica che un algoritmo non stimoli intenzionalmente la dipendenza? Come si valuta l’adeguatezza di un sistema di verifica dell’età? Serviranno competenze tecniche specializzate all’interno degli organi di vigilanza, una sorta di “polizia degli algoritmi” in grado di leggere il codice e interrogare i modelli.
Nick Clegg, Presidente degli Affari Globali di Meta, all’entrata in vigore delle prime norme aveva dichiarato che l’azienda stava lavorando duramente per rispondere alle nuove regole del DSA e adattare i propri sistemi di sicurezza. Questa dichiarazione racchiude l’ambivalenza dell’intera faccenda: le piattaforme “adattano” e “rispondono”, ma il controllo ultimo sul design del sistema rimane nelle loro mani.
Il DSA tenta di invertire questa asimmetria di potere, imponendo logiche di accountability dall’esterno.
Il vero esperimento in corso, quindi, non è solo se la trasparenza possa prevenire i danni online, ma se un organismo regolatorio sovranazionale possa costringere giganti tecnologici globali a riprogettare le fondamenta stesse delle loro interfacce e dei loro algoritmi per mercati specifici.
Meta e Google si stanno comportando come ingegneri che devono modificare un motore in corsa per passare il controllo tecnico, cercando di cambiare il meno possibile.
L’UE, dal canto suo, gioca la carta di essere il primo regolatore a pretendere le specifiche di quel motore.
Se questo sforzo epocale di reverse engineering normativo riuscirà a produrre un internet più sicuro e comprensibile, o si tradurrà in un labirintico esercizio di compliance che lascia il potere sostanziale invariato, è la domanda a cui i prossimi anni dovranno rispondere.