Quando l’ia inventa una partita di calcio: il caso della polizia di West Midlands
Dall’errore di Microsoft Copilot al divieto di accesso ai tifosi: come un’allucinazione digitale ha influenzato decisioni di ordine pubblico nel Regno Unito.
C’è un vecchio adagio nel mondo della programmazione che dice “Garbage in, garbage out”. Se inserisci spazzatura nel sistema, otterrai spazzatura in uscita.
Ma oggi, con l’avvento dell’intelligenza artificiale generativa nelle istituzioni pubbliche, siamo di fronte a un fenomeno nuovo e decisamente più inquietante: inserisci una domanda legittima, e il sistema ti restituisce una bugia confezionata con una sicurezza tale da sembrare una verità assoluta.
Siamo a Birmingham, nel Regno Unito, ed è appena scoppiato uno dei casi più emblematici di “cattiva gestione tecnologica” degli ultimi anni. La polizia delle West Midlands ha vietato ai tifosi del Maccabi Tel Aviv di assistere a una partita di Europa League contro l’Aston Villa. La motivazione? Un rapporto di intelligence che citava precedenti violenti, tra cui uno scontro tra tifosi avvenuto durante una partita contro il West Ham.
C’è solo un piccolo, insignificante dettaglio: quella partita tra Maccabi Tel Aviv e West Ham non è mai stata giocata.
Non esiste.
È un fantasma digitale, un’allucinazione creata di sana pianta da Microsoft Copilot e finita dritta nei dossier ufficiali della polizia britannica.
Non stiamo parlando di un errore di battitura o di una svista burocratica. Stiamo osservando il momento esatto in cui l’eccessiva fiducia in un algoritmo linguistico ha avuto conseguenze reali sulla libertà di movimento delle persone e sull’ordine pubblico.
E la cosa più affascinante – e terribile – è come i responsabili abbiano tentato di gestire la patata bollente.
L’allucinazione che diventa legge
Per capire la gravità della situazione, dobbiamo guardare sotto il cofano di come funzionano questi strumenti. Copilot, come ChatGPT o Gemini, non è un motore di ricerca nel senso classico del termine. È un Large Language Model (LLM).
Immaginatelo come un pappagallo incredibilmente colto che ha letto tutta internet, ma che non capisce veramente il significato di ciò che dice; il suo obiettivo è prevedere la parola successiva più probabile in una frase.
Quando gli agenti hanno chiesto informazioni sui rischi legati alla tifoseria israeliana, l’IA ha “unito i puntini” in modo creativo. Ha preso l’esistenza delle due squadre, ha pescato dal calderone probabilistico dei dati sportivi e ha inventato un evento plausibile ma falso.
Inizialmente, la reazione umana è stata quella di negare. Il capo della polizia delle West Midlands, Craig Guildford, ha tentato di minimizzare. In una prima audizione, ha suggerito che l’informazione provenisse da una semplice ricerca su Google. Ma le bugie hanno le gambe corte, specialmente quando di mezzo c’è un registro digitale. Pochi giorni dopo, messo alle strette, Craig Guildford ha dovuto scusarsi davanti a una commissione parlamentare, ammettendo che l’errore sul match fantasma è nato dall’uso di Microsoft Copilot.
Ecco le sue parole, che segnano un punto di non ritorno nella giurisprudenza dell’IA:
Venerdì pomeriggio sono venuto a conoscenza del fatto che il risultato errato riguardante la partita West Ham contro Maccabi Tel Aviv è emerso come risultato dell’uso di Microsoft Copilot.
— Craig Guildford, Capo della Polizia, West Midlands Police
Questo passaggio è cruciale. Dimostra che, fino al venerdì pomeriggio, il vertice della polizia credeva ciecamente a un dato inesistente.
Nessuno ha verificato.
Nessuno ha pensato di andare su un sito di statistiche sportive o, banalmente, su Wikipedia. L’IA ha parlato, e l’autorità ha eseguito.
Quando l’assistente digitale diventa un testimone inaffidabile
Il problema qui non è la tecnologia in sé, ma l’aspettativa magica che nutriamo nei suoi confronti. Microsoft ha integrato l’IA nei suoi prodotti per aumentare la produttività, non per sostituire il giudizio critico umano in contesti di sicurezza nazionale.
L’azienda di Redmond si è difesa prontamente, sottolineando che il software include avvisi chiari.
Copilot combina informazioni da più fonti web in un’unica risposta con citazioni collegate. Informa gli utenti che stanno interagendo con un sistema di intelligenza artificiale e li incoraggia a rivedere le fonti.
— Portavoce, Microsoft
È la classica difesa del produttore di automobili: se guidi bendato, non è colpa del motore se vai a sbattere. Tuttavia, c’è un aspetto di design che non possiamo ignorare. Queste interfacce sono costruite per sembrare autorevoli. Il tono colloquiale, la formattazione pulita, la velocità di risposta: tutto è progettato per creare fiducia.
E quando un agente di polizia, magari sotto pressione e con poco tempo, si trova davanti a un testo così ben confezionato, la tentazione di fare copia-incolla è fortissima.
Ma c’è un livello ancora più profondo in questa storia. L’IA non ha agito nel vuoto. Secondo un rapporto indipendente, la polizia stava cercando attivamente prove per giustificare il divieto. L’algoritmo ha agito come uno specchio deformante: ha restituito esattamente ciò che l’utente voleva sentirsi dire.
Questo fenomeno, noto come confirmation bias, viene amplificato esponenzialmente dall’IA generativa, che tende ad assecondare il prompt dell’utente per “compiacerlo”.
La politica britannica non l’ha presa bene. La situazione è precipitata al punto che il ministro dell’Interno Shabana Mahmood ha espresso sfiducia nei confronti di Guildford, chiedendone le dimissioni non solo per l’errore tecnologico, ma per la cultura interna che lo ha permesso.
La forza di polizia ha cercato solo le prove per supportare la loro posizione desiderata di vietare l’accesso ai tifosi.
— Shabana Mahmood, Ministro dell’Interno del Regno Unito
Il corto circuito della responsabilità
Siamo di fronte a un paradosso tecnologico. Abbiamo strumenti capaci di superare l’esame di avvocatura o di scrivere codice complesso in secondi, ma che possono inventarsi fatti storici senza battere ciglio. L’incidente di Birmingham ci insegna che l’adozione dell’IA nel settore pubblico sta avvenendo a una velocità superiore alla formazione di chi deve utilizzarla.
L’entusiasmo per l’innovazione non deve accecarci. L’IA è un moltiplicatore di capacità: se sei un ricercatore attento, ti rende più veloce; se sei negligente, ti permette di fare danni su scala industriale in una frazione del tempo.
Il caso Guildford resterà nei libri di storia della tecnologia non per la partita fantasma, ma per aver svelato l’ipocrisia del “l’ha detto il computer”.
Non possiamo trattare output probabilistici come prove forensi.
Se iniziamo a delegare decisioni di ordine pubblico a scatole nere di cui non comprendiamo il funzionamento, il rischio non è solo quello di vietare una partita, ma di erodere le fondamenta stesse della responsabilità istituzionale.
La tecnologia continuerà a correre. Copilot diventerà più intelligente, più preciso, meno incline alle allucinazioni. Ma fino a quando l’essere umano dietro la tastiera non imparerà a dire “aspetta, fammi controllare”, saremo sempre a un prompt di distanza dal prossimo disastro.
E voi, vi fidereste di un arresto basato su un’allucinazione digitale?