Intelligenza artificiale: la paura dell’estinzione è stata il miglior successo di pubbliche relazioni delle Big Tech
Mentre i catastrofisti agitavano lo spauracchio di Skynet, le Big Tech hanno saccheggiato i nostri dati, concentrando il potere e lasciando indietro privacy e diritti civili.
Siamo arrivati alla fine del 2025 e, contro ogni previsione dei catastrofisti della Silicon Valley, non siamo ancora stati trasformati in graffette da una superintelligenza ribelle.
I semafori funzionano, i codici nucleari sono (presumibilmente) al sicuro e il vostro tostapane non ha ancora tentato di prendere il controllo della democrazia occidentale. Eppure, se torniamo con la mente a quel frenetico biennio 2023-2024, la narrazione dominante sembrava uscita direttamente da una sceneggiatura scartata di Terminator.
Ci avevano detto che l’Intelligenza Artificiale Generale (AGI) era alle porte, pronta a superarci, sottometterci o, nella migliore delle ipotesi, renderci obsoleti come cavalli dopo l’invenzione del motore a scoppio.
A distanza di tre anni dal lancio di ChatGPT, è arrivato il momento di fare un po’ di pulizia tra il marketing apocalittico e la realtà tecnica. Perché, analizzando a freddo la situazione, emerge un quadro molto diverso e decisamente più cinico: la paura dell’estinzione è stata, per molti versi, il più grande successo di pubbliche relazioni delle Big Tech.
Agitare lo spettro del “robot killer” è servito a distogliere l’attenzione dai problemi reali, noiosi e tremendamente redditizi: la violazione sistematica della privacy, il furto di proprietà intellettuale su scala industriale e la concentrazione di potere nelle mani di tre o quattro consigli di amministrazione californiani.
Non serve un cappello di carta stagnola per unire i puntini; basta seguire i soldi.
L’apocalisse può attendere (ma il marketing no)
Tutto è iniziato con una mossa da manuale del terrore psicologico.
Ricordate quando i CEO delle stesse aziende che costruivano queste tecnologie firmavano lettere aperte chiedendo di essere fermati? Era il maggio 2023 quando oltre 1.000 esperti firmarono una dichiarazione equiparando i rischi dell’AI a guerre nucleari e pandemie, chiedendo che la mitigazione di tale rischio diventasse una priorità globale.
Sembrava un atto di responsabilità civica.
In realtà, era un capolavoro di posizionamento: se il mio prodotto è potente quanto una testata nucleare, allora deve valere miliardi. E soprattutto, se è così pericoloso, solo io e pochi altri eletti dovremmo avere la licenza per maneggiarlo.
Tuttavia, la comunità scientifica meno legata ai prezzi delle azioni ha sempre mantenuto un tono ben diverso, spesso soffocato dal clamore mediatico. Toby Walsh, Chief Scientist dell’AI Institute presso l’Università del New South Wales, è stato una delle voci fuori dal coro che ha cercato di riportare la discussione sulla terra ferma, smontando l’idea che un chatbot statistico possa sviluppare una volontà propria.
Non esiste alcuna giustificazione razionale per preoccuparsi di un imminente evento di estinzione umana causato dai chatbot AI o anche dai sistemi più capaci che possiamo realisticamente aspettarci nei prossimi decenni.
— Toby Walsh, Chief Scientist, AI Institute
Walsh sottolinea un punto tecnico che spesso sfugge ai legislatori, abbagliati dalle demo luccicanti: questi modelli sono “fragili sistemi di riconoscimento di pattern“, non entità senzienti che complottano nell’ombra.
Sono pappagalli stocastici, incredibilmente sofisticati, ma pur sempre pappagalli. Il problema è che ammettere che l’IA è “solo” un software difettoso che commette errori statistici non vende abbonamenti premium e, soprattutto, non giustifica valutazioni di borsa stellari.
Ma se l’estinzione non è il vero rischio, perché insistere tanto?
La risposta risiede in ciò che accade mentre guardiamo altrove.
Il grande diversivo della “superintelligenza”
Mentre il mondo dibatteva se l’AI avesse un’anima, le aziende tecnologiche stavano compiendo la più grande acquisizione di dati della storia umana senza chiedere il permesso a nessuno.
La velocità è stata l’arma vincente: un report ha evidenziato come la diffusione di ChatGPT ha raggiunto in un anno la velocità che internet ha impiegato sette anni a ottenere, creando un fatto compiuto prima che qualsiasi autorità garante della privacy potesse anche solo protocollare un reclamo.
La narrazione del “rischio esistenziale” ha funzionato come un perfetto specchietto per le allodole normativo.
I legislatori, terrorizzati dall’idea di passare alla storia come quelli che non hanno fermato Skynet, si sono concentrati su scenari fantascientifici, lasciando maglie larghe sulle questioni attuali. Hanno discusso di “kill switch” per superintelligenze ipotetiche, dimenticandosi spesso di applicare con rigore il GDPR sui dati che venivano aspirati per addestrare quei modelli.
Anche figure istituzionali come Bill Gates hanno giocato un ruolo ambiguo in questa partita. Pur essendo meno catastrofista di altri, ha spostato abilmente il focus dalla tecnologia in sé all’uso che ne fanno gli umani, come se Microsoft o OpenAI fossero semplici fornitori neutrali di strumenti, e non architetti di un ecosistema chiuso.
Non credo che l’IA sostituirà l’umanità o che sia una sorta di minaccia esistenziale. Penso che ci siano problemi seri, ma riguardano il modo in cui gli umani la usano, non il sistema che si sveglia e prende il sopravvento.
— Bill Gates, Co-Chair, Bill & Melinda Gates Foundation
Questa retorica è comoda.
Spostando la responsabilità sull’utente finale (“il modo in cui gli umani la usano”), le aziende si lavano le mani delle distorsioni intrinseche dei loro algoritmi. Se un’AI nega un mutuo a una minoranza o diffonde disinformazione elettorale, la colpa diventa di chi ha digitato il prompt sbagliato o del “cattivo attore”, non di chi ha progettato una scatola nera opaca e l’ha venduta come oracolo di verità.
E qui arriviamo al vero nodo della questione, quello che fa meno notizia ma fa più danni.
La distopia noiosa (quella che vi riguarda davvero)
Dimenticate i robot con gli occhi rossi. La vera minaccia è molto più banale e burocratica: è l’algoritmo che decide se siete idonei per un’assicurazione sanitaria, è il sistema di sorveglianza biometrica che vi traccia in metropolitana, è il chatbot che manipola le vostre emozioni per vendervi un prodotto o un’idea politica.
Questa è la “distopia noiosa” contro cui i garanti della privacy combattono ogni giorno, armati di regolamenti che le Big Tech considerano fastidiosi ostacoli all’innovazione. Le allucinazioni dei modelli linguistici non sono “creatività”, sono disinformazione automatizzata. I bias nei dati di addestramento non sono “bug”, sono discriminazioni codificate che impattano sulla vita reale delle persone.
Eppure, paradossalmente, si parla ancora troppo poco di come questi sistemi violino sistematicamente i principi di minimizzazione dei dati e di trasparenza previsti dal GDPR. Abbiamo permesso che il nostro intero patrimonio culturale e digitale venisse ingerito da aziende private per creare prodotti a pagamento, in cambio di un riassunto automatico delle email.
Dovremmo certamente regolare e monitorare i potenti sistemi di intelligenza artificiale, ma i rischi più urgenti sono l’abuso, i pregiudizi e la disinformazione – non un improvviso salto verso un’intelligenza divina che ci spazza via.
— Toby Walsh, Chief Scientist, AI Institute
Nel contesto attuale, Bill Gates ha respinto gli scenari di estinzione focalizzandosi sulla gestione umana, ma anche questa posizione, apparentemente pragmatica, nasconde l’insidia: normalizza la presenza pervasiva dell’AI.
Accettando che il problema sia solo la “gestione”, diamo per scontato che l’infrastruttura debba esistere e debba essere ovunque.
La realtà è che mentre guardavamo il cielo aspettando l’arrivo degli alieni digitali, ci hanno sfilato il portafoglio (e i dati) dalla tasca. La battaglia per la privacy non si combatte contro un supercomputer senziente, ma contro modelli di business predatori che prosperano nell’opacità.
La domanda che dovremmo porci non è “l’AI ci ucciderà?”, ma “chi controlla l’AI che controlla le nostre vite?”. E finché la risposta sarà “una manciata di miliardari in California”, forse è il caso di preoccuparsi davvero.
Non dell’estinzione della specie, ma dell’estinzione dei nostri diritti civili.