Il dipartimento dei trasporti usa l’AI di Google per scrivere le leggi: è un rischio?
Il Dipartimento dei Trasporti USA affida all’IA Gemini di Google la stesura delle normative federali, aprendo un dibattito sui rischi di una governance algoritmica.
Immaginate di salire su un aereo il cui protocollo di sicurezza è stato scritto non da un team di ingegneri e legislatori esperti, ma da un chatbot che fino a ieri suggeriva di mettere la colla sulla pizza per tenere fermo il formaggio.
Se vi sembra una distopia cyberpunk di cattivo gusto, forse non avete letto le notizie di questa mattina.
Il Dipartimento dei Trasporti degli Stati Uniti (DOT) ha deciso che il modo migliore per “modernizzare” la burocrazia non è assumere personale competente, ma affidare la stesura delle regolamentazioni federali all’intelligenza artificiale di Google, Gemini.
Siamo onesti: l’idea che un algoritmo generativo — noto per le sue “allucinazioni” statistiche — possa redigere norme che governano il traffico aereo o la sicurezza stradale dovrebbe far tremare i polsi a chiunque abbia un minimo di istinto di conservazione.
Eppure, in nome dell’efficienza e della deregolamentazione, stiamo assistendo alla fusione tra lo Stato e la Big Tech, con una velocità che lascia poco spazio alle domande scomode.
E di domande ce ne sarebbero parecchie.
Il legislatore automatico
Tutto è iniziato in sordina, come spesso accade con le rivoluzioni che non abbiamo chiesto.
Il Dipartimento dei Trasporti è diventata la prima agenzia di livello governativo a completare la migrazione di 50.000 dipendenti verso la suite Google Workspace integrata con l’IA.
Hanno spostato l’intera forza lavoro in cloud in soli 22 giorni. Un record di efficienza, certo, ma anche un segnale inequivocabile: la Silicon Valley non è più solo un fornitore di servizi, è l’infrastruttura stessa su cui poggia l’amministrazione.
Non stiamo parlando di usare l’IA per riassumere le email del lunedì mattina. L’obiettivo dichiarato è utilizzare i Large Language Models (LLM) per abbattere i tempi di stesura delle normative da mesi a giorni, se non minuti.
Un funzionario del DOT ha candidamente ammesso che un regolamento della FAA (l’ente per l’aviazione civile) è già stato bozzato utilizzando Gemini. La promessa è seducente: via la burocrazia, via i tempi morti.
Ma se l’IA scrive le regole, chi controlla che le regole abbiano senso?
L’obiettivo è comprimere le tempistiche tradizionali di regolamentazione, puntando a ridurre i cicli di stesura da mesi a meno di 30 giorni, con i primi test che indicano la possibilità di generare bozze in 20 minuti.
— Funzionario del Dipartimento dei Trasporti (DOT), 26 gennaio 2026
La narrazione ufficiale è quella della “modernizzazione”, ma il sottotesto è un trasferimento di responsabilità cognitiva dall’umano alla macchina. E mentre i burocrati festeggiano la fine del “foglio bianco”, nessuno sembra preoccuparsi del fatto che stiamo addestrando il cane da guardia con le crocchette fornite dal ladro.
Un affare (per chi?)
Qui la trama si infittisce e il portafoglio si apre. O meglio, sembra rimanere chiuso, ed è proprio questo che dovrebbe insospettirci.
La General Services Administration (GSA) ha recentemente siglato un accordo che garantisce l’accesso ai modelli Gemini per le agenzie federali a costi irrisori, si parla di circa 47 centesimi per agenzia.
Avete letto bene.
Meno di un caffè alle macchinette per accedere alla tecnologia di punta di una delle aziende più capitalizzate del mondo.
Perché Google dovrebbe svendere il suo gioiello? La risposta cinica — e solitamente quella corretta — è che quando il prodotto è gratis (o quasi), il vero prodotto sei tu.
O in questo caso, il vero prodotto è la governance americana.
Offrendo Gemini a prezzi stracciati, Google si assicura un lock-in senza precedenti all’interno del governo federale. Una volta che i processi decisionali di un’intera nazione dipendono dalla tua infrastruttura proprietaria, hai un potere di leva che nessun lobbista potrebbe mai comprare.
C’è poi la questione della sicurezza. Google sventola la certificazione “FedRAMP High” come un lasciapassare divino. È vero, significa che i server sono blindati contro gli hacker esterni.
Ma proteggere i dati dagli attacchi non significa proteggere la democrazia dagli errori algoritmici. FedRAMP garantisce che la cassaforte sia robusta, non che i documenti al suo interno non siano spazzatura generata da un software che non comprende il concetto di “legge”, ma solo la probabilità che una parola segua l’altra.
E mentre ci focalizziamo sui costi irrisori, perdiamo di vista chi pagherà il conto vero: i cittadini, quando si troveranno a dover rispettare normative allucinate.
Allucinazioni di Stato
Il problema tecnico è noto: gli LLM non “ragionano”, simulano il ragionamento.
Quando un modello come Gemini scrive una bozza normativa, non sta valutando l’impatto socio-economico o la giurisprudenza precedente; sta facendo un sofisticato copia-incolla probabilistico. Eppure, l’amministrazione ha confermato l’intenzione di utilizzare l’intelligenza artificiale per scrivere nuove normative, ignorando apparentemente che questi sistemi sono inclini a inventare fatti di sana pianta.
Immaginate un regolamento sulla privacy dei dati sanitari scritto da un’IA che, per completare una frase, inventa un precedente legale inesistente o una clausola di esenzione che favorisce, guarda caso, le grandi piattaforme tecnologiche.
Non è fantascienza; è il funzionamento intrinseco della tecnologia.
Se a questo aggiungiamo che gli esseri umani tendono a soffrire di “bias di automazione” — ovvero la tendenza a fidarsi ciecamente di ciò che dice il computer — il rischio è che i funzionari del DOT si limitino a firmare ciò che Gemini propone.
Inoltre, c’è un conflitto di interessi grande come una casa. Le Big Tech sono spesso oggetto di queste regolamentazioni. Se Google fornisce lo strumento che scrive le regole, quante probabilità ci sono che l’algoritmo suggerisca normative stringenti contro il monopolio digitale o l’abuso dei dati?
È come chiedere all’oste se il vino è buono, ma in questo caso l’oste ha anche scritto il codice che decide quanto vino puoi bere.
Siamo di fronte a un paradosso: usiamo la tecnologia più opaca mai creata per scrivere le leggi che dovrebbero garantire la trasparenza.
E mentre l’Europa si affanna con l’AI Act per cercare di mettere dei paletti, gli Stati Uniti sembrano aver deciso di saltare la staccionata e correre bendati verso il futuro. Chi ci guadagna è chiaro: Google consolida la sua posizione di “sistema operativo” dello Stato. Chi ci perde? Probabilmente la nostra privacy, la nostra sicurezza e, in ultima analisi, la sovranità delle istituzioni umane.
La domanda che dovremmo porci non è se l’IA possa scrivere leggi più velocemente di un umano. Certo che può farlo.
La domanda è: vogliamo davvero vivere in un mondo regolato da un correttore automatico sotto steroidi, il cui unico obiettivo è compiacere il prompt dell’utente?