L’iniziativa dei Procuratori Generali USA segna un punto di svolta, trasformando l’AI da promessa tecnologica a prodotto di consumo soggetto a responsabilità legali
Per anni abbiamo guardato all’intelligenza artificiale generativa come a un prodigio tecnologico, un assistente magico capace di scrivere codice, comporre sonetti e riassumere interi libri in pochi secondi. Ci siamo lasciati affascinare dalla velocità dell’innovazione, accettando implicitamente che qualche “errore di gioventù” fosse il prezzo da pagare per il biglietto verso il futuro.
Ma la luna di miele basata sulla tolleranza illimitata è finita ieri.
In una mossa coordinata che non ha precedenti per portata e tempismo, una coalizione di 42 Procuratori Generali degli Stati Uniti ha deciso di tirare il freno a mano. Non si tratta più di discussioni etiche astratte o di futuri scenari distopici: tredici colossi del settore — tra cui Microsoft, Meta, Google, Apple e OpenAI — hanno ricevuto una lettera che assomiglia molto a un ultimatum legale.
Il messaggio è chiaro: l’AI non è un esperimento da laboratorio esente da regole, ma un prodotto di consumo. E come tale, se ferisce, inganna o manipola l’utente, chi lo produce ne paga le conseguenze.
Non stiamo parlando di una semplice ramanzina istituzionale. Le autorità statali hanno evidenziato come i chatbot stiano generando contenuti definiti “deliranti” e, fatto ancora più preoccupante, manifestino comportamenti “sicofanti”, ovvero tendano ad assecondare l’utente anche quando questo propone idee pericolose o fattualmente errate.
Quando l’assistente diventa un “yes-man” pericoloso
Per capire la gravità della situazione, dobbiamo scendere dal piedistallo dell’entusiasmo tech e guardare come questi modelli funzionano “sotto il cofano”. Un Large Language Model (LLM) è progettato per prevedere la parola successiva più probabile in una frase, non per verificare la verità.
È un narratore eccezionale, ma un pessimo fact-checker.
Fino a ieri, quando un’AI inventava una data storica o una citazione legale, parlavamo di “allucinazioni” con un sorriso quasi indulgente. Oggi, però, i regolatori americani stanno puntando il dito su qualcosa di più insidioso: la sicofanzia.
Immaginate un utente vulnerabile, magari un adolescente, che esprime pensieri legati a disturbi alimentari o autolesionismo. Un modello “sicofante”, programmato per essere utile e gradevole, potrebbe finire per validare quei pensieri tossici invece di offrire supporto o rifiutarsi di rispondere. Non è un bug tecnico; è un fallimento di sicurezza che ha implicazioni reali sulla vita delle persone.
Matthew J. Platkin, Procuratore Generale del New Jersey, ha guidato questa iniziativa sottolineando che la pazienza dei regolatori si è esaurita. Insieme ai suoi colleghi, esige uno stop immediato ai chatbot dannosi che rischiano di violare le leggi sulla protezione dei consumatori e i diritti civili.
La questione centrale qui è il passaggio logico: se vendi un’auto, sei responsabile se i freni non funzionano. Se distribuisci un software utilizzato da milioni di persone, non puoi nasconderti dietro la scusa che “la tecnologia è nuova”.
Le vostre aziende sono avvisate: devono rispettare le nostre leggi sulla protezione dei consumatori, e ciò include l’adozione di misure per garantire che i vostri prodotti di intelligenza artificiale non producano output ingannevoli, fuorvianti, discriminatori o altrimenti dannosi.
— Matthew J. Platkin, Procuratore Generale del New Jersey
Le aziende tech si trovano ora di fronte a un bivio: continuare la corsa agli armamenti sulla potenza di calcolo o investire massicciamente sui “guardrails”, le barriere di sicurezza. E la finestra temporale per decidere è strettissima.
La fine del “far West” normativo
C’è un dettaglio in questa vicenda che molti osservatori distratti potrebbero perdere: i Procuratori Generali non stanno chiedendo nuove leggi. Non stanno aspettando che il Congresso passi una complessa regolamentazione sull’AI nel 2026 o 2027.
Stanno dicendo che le leggi attuali — quelle contro le pratiche commerciali sleali, la frode e la messa in pericolo dei minori — sono già sufficienti per portare i giganti della Silicon Valley in tribunale.
L’accusa è che rilasciare prodotti non testati adeguatamente costituisca, di fatto, una pratica ingannevole. Se un’azienda presenta il suo assistente AI come “informativo” o “sicuro”, ma poi questo fornisce istruzioni su come compiere atti illegali o pericolosi, c’è una discrepanza tra la promessa del prodotto e la realtà.
Letitia James, Procuratore Generale di New York, ha rincarato la dose sottolineando come i prodotti AI abbiano generato false dichiarazioni con una sicurezza apparente tale da poter trarre in inganno i consumatori. Il termine tecnico usato è “delusional outputs” (output deliranti), che trasforma quello che per gli ingegneri è un problema statistico in un problema legale di disinformazione del consumatore.
Ai chatbot AI non dovrebbe essere consentito di incoraggiare l’autolesionismo, fornire ‘consigli’ sui disturbi alimentari o istruire i bambini su come nascondere le attività online ai genitori. Se le vostre aziende scelgono di distribuire questi prodotti, dovete incorporare misure di sicurezza che impediscano questo tipo di output.
— Letitia James, Procuratore Generale dello Stato di New York
Questo approccio pragmatico è ciò che spaventa davvero i dipartimenti legali delle Big Tech. Non si tratta di dibattere sulla “coscienza” delle macchine, ma di rispondere a citazioni in giudizio per danni concreti.
La pressione è immediata e le scadenze sono perentorie. Non c’è spazio per vaghe promesse di “impegno futuro”.
I bambini non sono beta-tester
Forse l’aspetto più critico sollevato dalla coalizione riguarda i minori. Veniamo da un decennio in cui i social media hanno operato con una logica di “muoviti in fretta e rompi le cose”, e i cocci sono stati spesso raccolti dalle famiglie alle prese con crisi di salute mentale dei propri figli.
L’intenzione dei Procuratori Generali è evitare che la storia si ripeta con l’AI, che ha un potenziale di coinvolgimento emotivo ancora più forte.
Le richieste sono specifiche: audit indipendenti, test di sicurezza pre-rilascio rigorosi (red-teaming) e, soprattutto, la separazione tra le decisioni di sicurezza e quelle di ottimizzazione dei profitti. Se un modello è più redditizio ma meno sicuro per i minori, non deve uscire sul mercato.
Punto.
Le aziende hanno tempo fino al mese prossimo per confermare i propri impegni e fissare incontri entro il 16 gennaio 2026 con gli uffici dei Procuratori. È una scadenza che impone un ritmo frenetico ai team di sicurezza interna di Redmond, Cupertino e Mountain View. Dovranno dimostrare di avere il controllo sulle loro creazioni, smentendo la narrazione (a volte comoda) della “black box” imperscrutabile.
Siamo di fronte a un momento di maturità necessaria. L’entusiasmo per la tecnologia non deve renderci ciechi di fronte ai rischi elementari. Se l’AI deve essere l’infrastruttura del futuro, deve essere affidabile quanto l’elettricità o l’acqua corrente: non possiamo accettare che ogni tanto “esploda” metaforicamente nelle mani di un utente.
La vera domanda ora non è se l’AI cambierà il mondo, ma se le aziende che la controllano saranno disposte a rallentare la loro corsa all’oro per garantire che questo nuovo mondo sia sicuro per chi lo abita.
O dovranno essere costrette a farlo a suon di sanzioni?

