L'Inganno dell'Ia Etica: Geopolitica e Violazione dei Diritti nel 2025

L’Inganno dell’Ia Etica: Geopolitica e Violazione dei Diritti nel 2025

Le aziende di IA usano la scusa della competizione geopolitica per divorare i dati personali e i contenuti altrui, mentre i legislatori si concentrano sull’etichettatura e ignorano i diritti fondamentali.

Siamo arrivati alla fine di questo 2025 e, se c’è una cosa che abbiamo imparato, è che la promessa di un’intelligenza artificiale “etica” è invecchiata peggio di una password non crittografata in un database pubblico.

Mentre ci prepariamo a chiudere l’anno, il panorama tecnologico non assomiglia affatto all’utopia collaborativa che ci avevano venduto nei pressi della Silicon Valley; sembra piuttosto un campo di battaglia dove la privacy degli utenti e il diritto d’autore sono le vittime sacrificali, immolate sull’altare di una non meglio specificata “sicurezza nazionale”.

La retorica è cambiata in modo sottile ma inesorabile. Non si parla più solo di chatbot che scrivono poesie o riassumono email. Ora, la narrazione dominante è quella della sopravvivenza geopolitica. Le Big Tech hanno smesso di fingere di volerci “connettere” e hanno iniziato a presentarsi come l’ultimo baluardo della democrazia occidentale.

È una mossa brillante, bisogna ammetterlo: se critichi il modello di business basato sull’estrazione indiscriminata di dati personali, non sei più solo un rompiscatole che cita il GDPR, ma diventi un ostacolo al predominio dell’Occidente contro le potenze rivali.

Ma dietro questi proclami patriottici, chi sta davvero incassando i dividendi?

Per capire cosa sta succedendo, bisogna guardare oltre i comunicati stampa patinati e leggere tra le righe delle dichiarazioni che i dirigenti tech rilasciano ai regolatori governativi. Lì, lontano dai riflettori del marketing consumer, emerge la vera strategia: creare un duopolio globale dove la regolamentazione sulla privacy viene vista non come un diritto, ma come un fastidioso bug nel sistema operativo del profitto.

La geopolitica come scusa per l’impunità

L’argomento più in voga nei corridoi di Washington — e che inevitabilmente si riverbera su Bruxelles — è la divisione del mondo in due blocchi tecnologici. Da una parte ci sarebbe l’IA “democratica”, guidata dagli Stati Uniti (e dalle loro aziende private), e dall’altra l’IA “autocratica”, guidata dalla Cina.

Questa dicotomia manichea serve a uno scopo preciso: giustificare una deregolamentazione aggressiva in nome della competitività. Se non permettiamo alle nostre aziende di addestrare i loro modelli su tutto, inclusi i nostri dati sanitari, finanziari e personali, allora “vincono loro”.

È interessante notare come questa visione venga promossa proprio da chi ha tutto l’interesse a mantenere lo status quo. Benjamin Schwartz, responsabile delle partnership infrastrutturali e della politica di OpenAI, ha recentemente delineato questa visione con una franchezza quasi disarmante. Secondo lui, il mondo sta convergendo su due “stack” tecnologici distinti e la missione è assicurarsi che quello democratico prevalga.

Ma cosa significa esattamente “democratico” in questo contesto? Significa forse trasparente, responsabile e rispettoso della privacy?

Non esattamente.

Nel suo discorso ai legislatori, Benjamin Schwartz ha definito la leadership statunitense come un imperativo strategico per contrastare i modelli statalisti e chiusi, suggerendo che ogni nazione finirà inevitabilmente per dipendere da una delle due infrastrutture.

“Il mondo sta convergendo su due ‘stack’ di IA… Uno è sostenuto dalla Repubblica Popolare Cinese (RPC), diretto dallo stato, chiuso e incentrato sulla sorveglianza; il nostro è democratico, guidato dal mercato e allineato alla sicurezza. Ogni paese finirà in uno di questi due stack, che lo scelga o meno. L’imperativo strategico per gli Stati Uniti è garantire che lo stack democratico prevalga.”

— Benjamin Schwartz, Responsabile delle Partnership Infrastrutturali e delle Politiche presso OpenAI

Notate l’ironia? Si definisce “democratico” un sistema “guidato dal mercato”, come se il profitto di un’azienda privata fosse sinonimo di libertà civile.

Il sottotesto è inquietante: per combattere un sistema di sorveglianza statale (quello cinese), dobbiamo affidarci a un sistema di sorveglianza privato (quello americano).

La differenza per l’utente finale? In un caso i tuoi dati li ha il governo, nell’altro li ha una corporation che li usa per venderti prodotti o addestrare modelli che poi rivenderà al tuo governo.

OpenAI suggerisce addirittura la creazione di consorzi internazionali, dove i partner esteri (leggi: l’Europa) abbiano una “partecipazione” nello stack tecnologico americano. È un modo elegante per dire: “Non fatevi le vostre infrastrutture sovrane, usate le nostre, dateci i vostri dati e vi promettiamo che saremo i buoni”.

È una forma di colonialismo digitale spacciato per alleanza strategica, e il rischio è che i regolatori europei, spaventati di rimanere indietro, abbocchino all’amo, annacquando le protezioni come l’AI Act o il GDPR per non disturbare il “campione democratico”.

Ma se la geopolitica è l’arma di distrazione di massa, il vero scontro si sta consumando sul terreno dei contenuti e della proprietà intellettuale, dove la trasparenza è diventata una parola vuota.

Il teatro della trasparenza e il silenzio sui diritti

Mentre si discute di massimi sistemi, la realtà operativa è che le aziende di IA stanno divorando l’intero scibile umano senza chiedere permesso. Il 2025 si chiude con una serie di cause legali che mostrano quanto sia profonda la frattura tra chi crea contenuti e chi li sfrutta. La Chicago Tribune Company, insieme ad altri editori, ha dovuto portare in tribunale Perplexity AI per violazione del copyright.

Non è un caso isolato, è il sintomo di un ecosistema malato dove il concetto di “fair use” è stato allungato fino a spezzarsi.

Il problema è che, nonostante l’enorme impatto sociale, la regolamentazione arranca. Un recente report ha messo in luce come le priorità dei legislatori siano spesso disallineate rispetto ai rischi reali. Analizzando il panorama globale, uno studio del Center for News, Technology & Innovation ha analizzato 188 proposte politiche sull’IA, rilevando che mentre trasparenza e privacy sono in cima alla lista dei desideri, la libertà di espressione è stata relegata in fondo alle priorità.

L’alto posizionamento della trasparenza e della responsabilità è “un segno della sfida della responsabilità nell’opacità di molti sistemi di IA e del peso che le questioni relative alla privacy hanno avuto nella recente governance tecnologica.”

— Center for News, Technology & Innovation (CNTI)

Sembra una buona notizia che la trasparenza sia una priorità, vero?

Sbagliato. O meglio, è ingenuo pensarlo.

Quando i regolatori parlano di trasparenza, spesso si limitano a chiedere l’etichettatura dei contenuti generati dall’IA (il famoso “bollino” che dice se un’immagine è fake). Quasi mai si riferiscono alla trasparenza a monte: quali dati sono stati usati per l’addestramento? Come sono stati ottenuti?

C’è il consenso degli utenti?

Questa “opacità” citata dal CNTI è funzionale al business. Se le aziende dovessero rivelare esattamente quali articoli, libri e dati personali hanno ingerito, sarebbero sommerse da una marea di cause legali che farebbe sembrare quella del Chicago Tribune una scaramuccia da cortile. L’oscurità non è un bug tecnico, è una caratteristica legale necessaria per la sopravvivenza del modello attuale.

Inoltre, il fatto che solo 20 documenti su 188 menzionino implicazioni positive per il giornalismo la dice lunga. L’industria dell’informazione viene vista solo come una miniera da scavare, non come un pilastro democratico da sostenere.

E qui torniamo al paradosso iniziale: si vuole difendere la “democrazia” distruggendo economicamente una delle sue istituzioni fondamentali, la stampa libera, attraverso il furto sistematico dei suoi contenuti.

L’assenza di un focus sulla libertà di espressione è altrettanto allarmante. In molte regioni, l’IA viene usata per moderare (leggi: censurare) i contenuti su scala industriale. Senza protezioni esplicite, stiamo costruendo l’infrastruttura perfetta per la repressione automatizzata, tutto mentre ci congratuliamo per aver messo un watermark su un video deepfake.

Chi paga il conto dell’innovazione?

Mentre le aziende litigano sui brevetti e i governi sulla sovranità digitale, c’è un altro aspetto che viene sistematicamente ignorato: il costo umano ed economico di questa transizione. L’entusiasmo per l’IA nel 2025 non ha portato al boom di produttività che arricchisce tutti, ma a una ristrutturazione brutale del mercato del lavoro.

Le promesse di “nuovi lavori” che avrebbero sostituito quelli vecchi si stanno rivelando, prevedibilmente, fumo negli occhi. L’automazione cognitiva non sta solo aiutando i lavoratori, li sta rendendo obsoleti o, peggio, li sta trasformando in supervisori a basso costo di algoritmi imperfetti.

Anche fonti che monitorano i trend sociali, come il rapporto annuale di EPIC, evidenziano come i licenziamenti nel settore tecnologico siano un trend in crescita, segnalando una maturazione rapida e dolorosa del settore.

C’è poi la questione della “chiarezza normativa” richiesta a gran voce da aziende come Anthropic. Si lamentano che l’incertezza sul text and data mining sia una barriera.

Tradotto dal linguaggio corporate: “Le leggi attuali che ci impediscono di prendere tutto ciò che vogliamo sono un ostacolo al nostro profitto”.

La loro soluzione non è adattare la tecnologia alle leggi sui diritti umani e sulla proprietà, ma cambiare le leggi per adattarle alla voracità della tecnologia.

Vogliono un lasciapassare legale per trasformare l’intera internet in un dataset di addestramento gratuito. E la cosa più preoccupante è che, usando la scusa della competizione con la Cina, potrebbero ottenerlo. Se l’Europa e gli Stati Uniti abbassano la guardia sui diritti di copyright e privacy per “accelerare l’innovazione”, avremo perso la partita prima ancora di giocarla. Avremo sacrificato i nostri diritti individuali per permettere a poche aziende californiane di vincere una guerra commerciale contro Pechino.

Siamo di fronte a un bivio.

Da una parte c’è un futuro in cui l’IA è uno strumento pubblico, regolato, trasparente, dove i dati personali sono sacri e il lavoro creativo è remunerato. Dall’altra c’è lo “stack democratico” di cui parla OpenAI: un futuro in cui la democrazia è un servizio in abbonamento gestito da un consiglio di amministrazione, e la privacy è un lusso che non ci possiamo più permettere se vogliamo restare “sicuri”.

La domanda che dovremmo farci, mentre guardiamo le luci di questo Natale 2025, non è quale IA sia più potente, ma chi controlla l’interruttore.

E soprattutto: se per sconfiggere il “Grande Fratello” autocratico dobbiamo costruirne uno “democratico” altrettanto invasivo, qual è esattamente la vittoria che stiamo celebrando?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie