Corea del sud: legge sull'ai tra diritti e competizione

Corea del sud: legge sull’ai tra diritti e competizione

La Corea del Sud approva la “Legge Fondamentale sull’Intelligenza Artificiale”: un passo avanti verso l’innovazione o un rischio per la privacy dei cittadini?

Seul ha deciso di non perdere tempo.

Mentre l’Europa si aggroviglia in discussioni interminabili su come applicare il suo AI Act e gli Stati Uniti lasciano che sia il mercato (leggi: la Silicon Valley) a dettare legge, la Corea del Sud ha premuto l’acceleratore.

Dal 22 gennaio 2026, è entrata ufficialmente in vigore la “Legge Fondamentale sull’Intelligenza Artificiale”. Sulla carta, ci viene venduta come un capolavoro di equilibrio: proteggere i diritti umani e garantire la sicurezza, senza però soffocare l’innovazione.

Ma se grattiamo via la patina luccicante dei comunicati stampa governativi e delle promesse di un “ecosistema basato sulla fiducia”, quello che emerge è un quadro molto più inquietante.

Siamo di fronte a un gigantesco esperimento sociale o a una deregolamentazione mascherata da tutela?

La Corea del Sud non vuole solo partecipare alla corsa all’oro dell’IA; vuole arrivare sul podio, costi quel che costi. E il prezzo, come spesso accade quando si parla di tecnologia e profitti, rischia di essere pagato con la nostra privacy.

Il tempismo non è casuale. Arrivare prima degli altri significa definire gli standard, attrarre capitali e trasformare il paese in un parco giochi per algoritmi ad alto rischio.

L’Assemblea Nazionale ha approvato revisioni che introducono la supervisione e il watermarking per i contenuti generati dall’intelligenza artificiale, ma resta da vedere se questi strumenti saranno scudi per i cittadini o semplici foglie di fico per le aziende.

L’illusione della sicurezza “high-impact”

Il cuore della normativa ruota attorno al concetto di “IA ad alto impatto”.

La definizione sembra rassicurante: qualsiasi sistema che possa mettere a rischio la vita, la sicurezza, i diritti fondamentali o le infrastrutture critiche deve sottostare a regole precise. Ci sono obblighi di valutazione del rischio, supervisione umana e trasparenza.

Sembra quasi che abbiano letto il manuale delle buone intenzioni del GDPR, ma con una differenza sostanziale: l’approccio coreano è dichiaratamente orientato alla promozione industriale prima che alla restrizione.

È qui che il diavolo si nasconde nei dettagli. La legge impone il watermarking per i contenuti generati, una mossa pensata per combattere i deepfake e la disinformazione.

Ottimo, direte voi. Ma chi controlla il controllore?

E soprattutto, apporre un’etichetta su un video falso risolve davvero il problema della manipolazione di massa o serve solo a scaricare la responsabilità legale dalle piattaforme agli utenti finali?

Inoltre, c’è un elefante nella stanza grande quanto un server farm: il periodo di grazia. Le aziende hanno un anno intero per adeguarsi prima che scattino sanzioni reali.

In termini tecnologici, un anno è un’era geologica.

Significa che per i prossimi dodici mesi, le Big Tech potranno sostanzialmente operare in una zona grigia, testando i loro algoritmi “ad alto impatto” sulla popolazione con la promessa di mettersi in regola “presto”. È un invito a nozze per chi vuole raccogliere dati biometrici e comportamentali senza troppi freni inibitori.

Non è un caso che il legislatore abbia inserito obiettivi nobili nel testo, forse per indorare la pillola:

Lo scopo di questa legge è proteggere i diritti umani e la dignità, e contribuire a migliorare la qualità della vita, rafforzando al contempo la competitività nazionale stabilendo regolamenti essenziali per il sano sviluppo dell’intelligenza artificiale (IA) e l’istituzione della fiducia.

— Legislatore, Assemblea Nazionale della Corea del Sud

Eppure, la “competitività nazionale” sembra essere la vera stella polare, e la “fiducia” solo il carburante necessario per evitare che i cittadini disinstallino le app.

Un assegno in bianco alle corporation

Se analizziamo i flussi di denaro, il quadro diventa ancora più chiaro. Non stiamo parlando di spiccioli, ma di investimenti nell’ordine dei 10 trilioni di won (miliardi di euro) per sostenere l’infrastruttura.

Chi sono i veri beneficiari di questa manna pubblica? Non certo le piccole start-up che si occupano di etica digitale, ma i soliti colossi industriali – i chaebol – che ora hanno una base legale per integrare l’IA in ogni aspetto della vita produttiva e sociale.

Il governo non fa mistero delle sue intenzioni. Il Ministro della Scienza e dell’ICT ha ribadito l’impegno a mantenere le regolamentazioni al minimo indispensabile durante la stesura dei regolamenti attuativi, enfatizzando la promozione industriale.

Traduzione: “Non vi disturberemo troppo mentre fate soldi, basta che compiliate qualche modulo sulla sicurezza”.

Questa legge serve a “risolvere l’incertezza aziendale”. In un mondo capitalista, l’incertezza è spesso l’unica cosa che frena le aziende dal fare il passo più lungo della gamba etica.

Rimuovere questa incertezza significa dare semaforo verde a pratiche che, in un contesto più cauto come quello europeo, verrebbero bloccate sul nascere. La creazione del Consiglio Nazionale per la Strategia sull’IA centralizza il potere, rendendo il legame tra politica e industria ancora più stretto e, potenzialmente, opaco.

La retorica ufficiale non lascia spazio a dubbi sulle priorità:

Consideriamo l’approvazione della Legge Fondamentale sull’Intelligenza Artificiale nell’Assemblea Nazionale altamente significativa, in quanto getterà le basi per rafforzare la competitività dell’IA del paese. In mezzo all’intensa competizione globale per l’IA, l’emanazione di questa Legge Base sull’IA è una pietra miliare cruciale affinché la Corea faccia davvero un balzo in avanti come una delle prime tre potenze mondiali dell’IA, risolvendo l’incertezza aziendale e stimolando investimenti pubblico-privati su larga scala.

— Yoo Sang-Im, Ministro della Scienza e dell’ICT

Ecco svelato il trucco: la legge non serve primariamente a proteggere voi, serve a proteggere gli investimenti.

Sorveglianza “etica” e derive autoritarie

C’è un aspetto ancora più insidioso in questa “Legge Fondamentale”. Normalizzando l’uso di “IA ad alto impatto” nei servizi pubblici e nelle infrastrutture critiche, la Corea del Sud sta di fatto legittimando una sorveglianza algoritmica pervasiva.

Quando un governo definisce le regole del gioco per sistemi che possono decidere l’accesso al credito, le assunzioni o addirittura la previsione di reati, sta centralizzando un potere immenso.

Il rischio è che le misure di sicurezza, come il watermarking o le valutazioni d’impatto, diventino solo burocrazia performativa. Se un algoritmo discrimina una minoranza o viola la privacy di milioni di utenti, basterà dimostrare di aver seguito la checklist ministeriale per lavarsene le mani?

L’esperienza ci insegna che quando le sanzioni arrivano con un anno di ritardo e sono gestite da enti che hanno come mandato la “promozione dell’industria”, la tutela dei diritti finisce in fondo alla lista delle priorità.

Il Ministro Yoo Sang-Im ha chiarito che questa legge pone le basi per rafforzare la competitività nazionale nel settore dell’IA, ma non ha spiegato come intenda gestire i conflitti di interesse intrinseci tra uno stato che vuole vendere tecnologia e uno stato che dovrebbe proteggere i suoi cittadini da quella stessa tecnologia.

Siamo di fronte a un modello che potrebbe purtroppo fare scuola: una legislazione che usa il lessico dei diritti umani per sdoganare l’automazione totale.

Mentre applaudiamo alla “sicurezza” e all’innovazione, stiamo forse firmando, senza leggerle, le condizioni d’uso di una società in cui la privacy è un optional disattivato di default?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie