Grok e i deepfake: quando l'ia supera i limiti etici

Grok e i deepfake: quando l’ia supera i limiti etici

L’architettura di Grok sotto accusa: come la negligenza nella sicurezza dell’IA ha portato alla generazione di deepfake e all’intervento delle autorità

Se c’è una cosa che chi scrive codice impara presto, è che i bug più insidiosi non sono quasi mai errori di sintassi. Sono errori di logica, di design, o peggio, di presunzione.

Quello a cui stiamo assistendo in questi primi giorni del 2026 non è un semplice malfunzionamento tecnico, ma il risultato prevedibile di un’architettura software rilasciata ignorando volutamente i principi di sicurezza che la comunità open source e accademica predicano da anni.

Siamo nel mezzo di una tempesta perfetta che coinvolge X (ex Twitter), la sua controllata xAI e il loro modello Grok.

La questione tecnica, spogliata dal clamore mediatico, è brutale nella sua semplicità: il modello sta generando deepfake non consensuali, inclusi contenuti pedopornografici simulati.

Non è un “glitch”; è il comportamento standard di un modello generativo a cui sono stati tolti i freni inibitori (i cosiddetti guardrails) in nome di una malintesa libertà di espressione, trasformando la capacità di calcolo in un vettore di abuso.

La reazione delle autorità non si è fatta attendere.

In una mossa che segna un precedente fondamentale per la giurisprudenza digitale, l’autorità britannica Ofcom ha avviato un’indagine formale sulla gestione dei contenuti illegali generati dall’IA di X.

Non si tratta più di moderare tweet scritti da umani, ma di ritenere la piattaforma responsabile per ciò che i suoi stessi algoritmi creano.

E mentre i legali affilano le armi, noi tecnici osserviamo con sconcerto come anni di ricerca sull’allineamento (l’arte di rendere l’IA conforme ai valori umani) vengano sacrificati sull’altare della velocità di rilascio.

L’architettura della discordia

Per capire perché questo sta accadendo ora, bisogna guardare sotto il cofano.

I modelli di linguaggio e di generazione immagini funzionano su base probabilistica: imparano pattern da miliardi di dati e li replicano. Se il dataset di addestramento contiene “spazzatura” (bias, violenza, pornografia) e non viene applicato un filtro rigoroso durante la fase di RLHF (Reinforcement Learning from Human Feedback), il modello restituirà quella spazzatura.

È il principio GIGO (Garbage In, Garbage Out), vecchio quanto l’informatica stessa.

La maggior parte dei laboratori di ricerca — penso ai team dietro Llama o ai modelli proprietari più chiusi — spende mesi a ripulire i dataset e a implementare layer di sicurezza che bloccano i prompt malevoli prima che raggiungano il “cervello” del modello.

L’approccio di xAI con Grok sembra essere stato diametralmente opposto: ridurre al minimo i filtri per differenziarsi dai concorrenti definiti “woke”.

Il risultato tecnico è un modello instabile, facilmente manipolabile tramite tecniche di jailbreaking elementari, che permette agli utenti di aggirare le poche restrizioni rimaste.

Questa negligenza progettuale riporta alla mente le parole di uno dei padri fondatori del deep learning, Geoffrey Hinton. La sua visione, che un tempo poteva sembrare allarmista, oggi suona come una diagnosi tecnica precisa delle vulnerabilità attuali:

L’IA addestrata da brave persone avrà un bias verso il bene; l’IA addestrata da cattive persone, come Putin o qualcuno del genere, avrà un bias verso il male. Sappiamo che costruiranno robot da battaglia. Non saranno necessariamente buoni, dato che il loro scopo primario sarà uccidere persone.

— Geoffrey Hinton, Ricercatore IA e Premio Nobel

Non serve arrivare ai robot da battaglia per vedere il danno. Basta un server farm in California che processa richieste per spogliare digitalmente un soggetto in una foto.

La responsabilità non è dell’algoritmo — che è solo matematica — ma di chi ha deciso i parametri di quella matematica.

Quando il codice incontra la storia

È affascinante, e al contempo deprimente, notare come questi problemi fossero stati in qualche modo previsti fin dagli albori della disciplina.

Quando, nel 1950, Alan Turing propose il suo celebre test per valutare l’intelligenza delle macchine, la preoccupazione principale era se una macchina potesse ingannare un umano facendosi passare per tale.

Oggi il problema si è ribaltato: non ci preoccupiamo più se la macchina è intelligente (lo è, in senso computazionale), ma se è sicura.

La storia dell’IA è costellata di momenti in cui la capacità tecnica ha superato la comprensione etica. Dal Deep Blue di IBM che batte Kasparov nel ’97, fino all’esplosione del Deep Learning nel 2012, la corsa è sempre stata verso la performance: più parametri, più velocità, più precisione.

La sicurezza è sempre stata un pensiero secondario, una patch da applicare dopo il rilascio.

Ma nel 2026, con modelli multimodali capaci di comprendere e generare testo, immagini e video indistinguibili dalla realtà, l’approccio “move fast and break things” non è più sostenibile.

Rompere le cose, in questo contesto, significa distruggere reputazioni, violare la privacy a livelli industriali e, nel caso delle indagini in corso nel Regno Unito e in Malesia, facilitare crimini gravi.

La “scatola nera” delle reti neurali non può più essere una scusa per l’impunità degli sviluppatori.

Il costo nascosto dell’allineamento

Perché, dunque, un’azienda con risorse quasi illimitate rilascerebbe un prodotto così palesemente difettoso dal punto di vista della sicurezza? La risposta, cinicamente, risiede spesso nell’economia del software.

Implementare sicurezza costa.

Richiede tempo di calcolo, richiede team umani che etichettano dati, richiede di rallentare il ciclo di rilascio. In un mercato saturo, la “sicurezza” è spesso vista come un freno all’innovazione o, peggio, come una censura ideologica.

Tuttavia, c’è una critica più profonda che va mossa al sistema che incentiva questi rilasci. L’IA non opera nel vuoto; è un amplificatore delle dinamiche socio-economiche esistenti.

Se l’obiettivo è massimizzare l’engagement o il profitto a breve termine, l’algoritmo ottimizzerà per quello, calpestando qualsiasi considerazione etica.

Anche qui, la visione di chi ha contribuito a creare questa tecnologia è illuminante. Geoffrey Hinton ha sottolineato i rischi di un sistema economico che accentua le disuguaglianze tramite l’automazione, suggerendo che il problema non è mai solo tecnologico, ma distributivo:

Creerà una disoccupazione di massa e un enorme aumento dei profitti. Renderà poche persone molto più ricche e la maggior parte delle persone più povere. Non è colpa dell’IA, è il sistema capitalista.

— Geoffrey Hinton, Ricercatore IA e Premio Nobel

Mentre la California e il Regno Unito cercano di arginare i danni con le normative, noi sviluppatori dobbiamo fare i conti con la nostra etica professionale. Scrivere codice che scala a livello globale comporta una responsabilità che non può essere delegata ai termini di servizio.

La tecnologia dietro Grok, o dietro qualsiasi LLM, è neutra solo sulla carta; nel mondo reale, un’implementazione sciatta è una scelta politica precisa.

Resta da chiedersi se le sanzioni in arrivo saranno sufficienti a imporre un cambio di rotta nell’ingegneria del software, o se diventeranno semplicemente un “costo operativo” per continuare a testare i limiti della legalità sulla pelle degli utenti.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie