Google legge le notizie per salvare vite. Ma se solo 6 eventi su 10 sono corretti, basta davvero?

Google legge le notizie per salvare vite. Ma se solo 6 eventi su 10 sono corretti, basta davvero?

Google presenta Groundsource, metodologia basata su Gemini che trasforma notizie in dati storici sulle inondazioni. Il dataset ha 2,6 milioni di record ma solo il 60% di accuratezza.

La metodologia estrae milioni di record da notizie globali, ma l’accuratezza nella posizione e nel tempo è del 60%.

Ieri, 12 marzo 2026, Google Research ha presentato Groundsource, la nuova metodologia basata su Gemini che trasforma notizie non strutturate provenienti da tutto il mondo in dati storici sulle inondazioni. Il dataset open-access risultante comprende 2,6 milioni di record, copre oltre 150 paesi e risale fino all’anno 2000. Numeri impressionanti, almeno sulla carta. Ma c’è una cifra che Google mette in evidenza quasi con disinvoltura, incastonata tra i grafici e gli esempi virtuosi: nelle revisioni manuali, solo il 60% degli eventi estratti da Groundsource risultava accurato sia nella posizione che nel tempismo. Tradotto: quattro eventi su dieci sono sbagliati, in qualche misura. Quando parliamo di inondazioni e di risposte di emergenza, questo non è un dettaglio tecnico. È una domanda sul tipo di futuro che stiamo costruendo.

Google sottolinea anche un altro numero, più confortante: Groundsource ha catturato tra l’85% e il 100% degli eventi di inondazione grave registrati dal GDACS — il Global Disaster Alert and Coordination System, iniziativa congiunta di Nazioni Unite e Commissione Europea — nel periodo tra il 2020 e il 2026. La copertura degli eventi più pericolosi è dunque alta. Ma copertura e accuratezza non sono la stessa cosa, e confonderle è esattamente il tipo di ambiguità comunicativa che merita attenzione. Un sistema può “vedere” quasi tutte le alluvioni importanti e tuttavia collocarle nel posto sbagliato, o attribuirle al giorno errato. Per un modello idrologico che deve calibrare previsioni future su dati storici, un errore di posizione o di timing non è un rumore accettabile: è un segnale corrotto. Chi utilizza quei dati per prendere decisioni — autorità locali, protezione civile, ingegneri idraulici — dovrebbe saperlo con chiarezza, e non scoprirlo leggendo una nota metodologica.

Affidabilità in gioco: sistemi tradizionali e concorrenza

Per capire cosa rappresenta davvero Groundsource, bisogna fare un passo indietro e guardare il contesto. Il GDACS, con cui Google si confronta, dispone di un inventario di circa 10.000 voci. È un sistema consolidato, costruito con criteri rigorosi di validazione istituzionale, anche se limitato nella scala. Groundsource, con i suoi 2,6 milioni di record, propone un salto quantitativo enorme. Ma la domanda che rimane senza risposta è: a quale costo di qualità? Google descrive la metodologia come “scalabile”, il che è vero — ma scalabilità e affidabilità tendono a tirare in direzioni opposte quando la fonte primaria è il flusso caotico dell’informazione giornalistica globale. Le notizie sulle inondazioni sono disomogenee, frammentate, spesso imprecise già nella loro forma originale. Affidarsi a Gemini per leggere e interpretare queste fonti introduce uno strato ulteriore di incertezza, non lo elimina.

Nel frattempo, il campo della previsione meteorologica e delle catastrofi si è affollato. Già nel giugno 2024, Microsoft Research aveva annunciato Aurora, il modello AI per previsioni meteorologiche globali, orientato alle previsioni in tempo reale e alle traiettorie di tempeste, costruito su dati meteorologici pubblici. Due mesi dopo, Aurora era disponibile su Microsoft Foundry, passando da un progetto self-hosted a deployment gestiti su scala enterprise. L’approccio è diverso da quello di Groundsource: non estrae dati da notizie, ma elabora dati meteorologici strutturati. È un confronto imperfetto, ma illuminante: mentre Microsoft punta sulla previsione, Google punta sulla ricostruzione storica. Entrambi gli approcci sono utili, ma servono scopi diversi e comportano rischi diversi. Il problema è che entrambe le aziende tendono a presentare i propri strumenti come soluzioni generali, quando in realtà sono pezzi parziali di un puzzle complesso.

C’è poi una questione che nessuno sembra voler affrontare apertamente: chi controlla questi dati, e con quale responsabilità? Groundsource è open-access, il che è positivo in linea di principio. Ma “open-access” non significa “validato” né “neutro”. Un dataset da 2,6 milioni di record estratto da notizie globali riflette inevitabilmente la distribuzione geografica dell’attenzione mediatica: le inondazioni nell’Europa occidentale o negli Stati Uniti ricevono più copertura giornalistica di quelle nel Sahel o nel Bangladesh rurale. Questo non è un problema tecnologico — è un problema strutturale che l’algoritmo non può correggere da solo. Se Groundsource diventa un riferimento per modelli di previsione e per politiche di adattamento climatico, il bias nei dati di partenza diventerà un bias nelle decisioni. Con conseguenze che ricadono, come sempre, su chi è già più vulnerabile.

Implicazioni pratiche: un futuro incerto

Le previsioni per le inondazioni urbane improvvise generate con questa metodologia sono già integrate nel Flood Hub di Google, la piattaforma che nel maggio 2024 aveva collaborato con il Servizio Geologico del Brasile per lanciare oltre 200 nuove località monitorate durante le devastanti inondazioni nel Rio Grande do Sul — un intervento che, stando ai resoconti, aveva permesso alle autorità locali di formulare piani di risposta più efficaci. L’integrazione tra dati storici e previsioni in tempo reale ha una logica solida: un modello che conosce la storia di un bacino idrografico dovrebbe prevedere meglio il suo comportamento futuro. Ma quella logica regge solo se la storia che il modello ha imparato è quella vera, non una ricostruzione con un margine di errore del 40%.

Mentre l’intelligenza artificiale riscrive la memoria delle catastrofi, trasformando titoli di giornale in coordinate e timestamp, chi garantisce che i dati su cui costruiamo le politiche di domani siano qualcosa di più di un’approssimazione algoritmica? Google ha fatto una cosa utile, e probabilmente anche necessaria. Ma utile non è sinonimo di sufficiente. E in questo caso, la distanza tra i due termini potrebbe misurarsi in vite.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie