Grokipedia: la montagna AI di Musk si auto-edita, riscrivendo la conoscenza.

Grokipedia: la montagna AI di Musk si auto-edita, riscrivendo la conoscenza.

Lanciata da Elon Musk il 27 ottobre 2025, Grokipedia è l'enciclopedia AI di xAI, presentata come alternativa "veritiera e indipendente" a Wikipedia. Con 6 milioni di articoli e una valutazione di 230 miliardi di dollari, sfida il concetto di sapere condiviso. Basata su Grok-3, promette neutralità tramite un "motore di analisi della verità", ma studi evidenziano bias algoritmici e centralizzazione del potere editoriale.

L’enciclopedia, che si propone come alternativa “veritiera e indipendente” a Wikipedia, affida a un’intelligenza artificiale il ruolo di arbitro ultimo della conoscenza, ma la sua promessa di neutralità è già messa in discussione da studi che rilevano bias algoritmici e fonti controverse.

Il 27 ottobre 2025, con un post su X, Elon Musk ha annunciato al mondo la nascita di Grokipedia. Definita come un’enciclopedia online generata dall’intelligenza artificiale, si presentava fin da subito come un’alternativa “veritiera e indipendente” a Wikipedia, accusata di essere “woke” e un’“estensione della propaganda dei media tradizionali”.

https://t.co/M6VrGv8zp5

Il principio guida, secondo Musk, era semplice e ambizioso: “la verità, tutta la verità, nient’altro che la verità”.

A distanza di pochi mesi, Grokipedia non è più solo una provocazione o un esperimento. Con oltre 6 milioni di articoli, una valutazione di xAI che sfiora i 230 miliardi di dollari e un modello di governance che affida completamente a un’AI il ruolo di arbitro ultimo della conoscenza, rappresenta una delle sfide più radicali e controverse al concetto stesso di sapere condiviso.

Ma cosa c’è dietro questa “montagna” di contenuti generati in tempo reale?

E soprattutto, può un’intelligenza artificiale, addestrata su dati umani e gestita da un’unica entità privata, essere davvero più neutrale e affidabile di una comunità di milioni di volontari?

La promessa: un’enciclopedia senza bias, gestita da una macchina

Grokipedia nasce dal modello linguistico Grok di xAI, la società di intelligenza artificiale fondata da Musk nel 2023. Tecnicamente, si tratta di un sistema complesso. Utilizza versioni avanzate di Grok (fino a Grok-3, con 280 miliardi di parametri) basate su architetture transformer, addestrate su un mix di dati accademici, Wikipedia stessa, e, in modo significativo, post della piattaforma X. Il supercluster Memphis, con 100.000 GPU H100, fornisce la potenza di calcolo.

L’approccio dichiarato è quello di un “motore di analisi della verità”: ogni affermazione in un articolo viene classificata dall’AI come Vera, Parzialmente Vera, Falsa, Priva di Contesto o Propaganda. Un layer di fact-checking incrocia in tempo reale oltre 100 database, mentre un sistema di “Rilevamento Bias 2.0” analizza i contenuti in 45 lingue, cercando di identificare e bilanciare pregiudizi politici, culturali e storici.

L’obiettivo è costruire Grok come un’”App universale”. Grokipedia è un passo necessario verso l’obiettivo di xAI di comprendere l’universo.

— Aman, a capo del team Grok general + voice model in xAI

La differenza più evidente rispetto a Wikipedia sta nel processo di modifica. Niente edit diretti da parte degli utenti. Chi vuole suggerire una correzione deve passare attraverso un form pop-up; è poi Grok a valutare la richiesta, decidere se implementarla e spiegare il proprio ragionamento. Un sistema che promette agilità e protezione dal vandalismo, ma che centralizza completamente il potere editoriale in un algoritmo.

A febbraio 2026, un’analisi ha rivelato un dato paradossale: la stragrande maggioranza delle modifiche approvate su Grokipedia non proveniva più da suggerimenti umani, ma era proposta e validata dallo stesso chatbot Grok, creando di fatto un dialogo decisionale a circuito chiuso.

La realtà: bias algoritmici e il paradosso della “verità” centralizzata

L’analisi critica di Grokipedia non può prescindere dal suo contesto di nascita: una reazione esplicita a una percezione di bias ideologico di sinistra in Wikipedia. Tuttavia, sostituire un presunto bias collettivo e dibattuto con un bias algoritmico, definito dai dati di addestramento e dagli obiettivi di un singolo attore, rischia di essere un rimedio peggiore del male. Diversi studi accademici indipendenti, sebbemi preliminari, stanno già tracciando un quadro problematico.

Una ricerca che ha confrontato 17.790 coppie di articoli ha rilevato che, mentre molti contenuti di Grokipedia sono allineati a Wikipedia, una porzione significativa diverge nettamente, mostrando uno spostamento sistematico verso destra nelle fonti citate per gli articoli dissimili. Un’altra analisi ha scoperto che, su temi controversi, l’85,5% delle voci di Grokipedia conteneva una citazione a una fonte considerata “generalmente inaffidabile” secondo gli standard di Wikipedia.

Il problema di fondo è epistemologico. Wikipedia, con tutti i suoi limiti e le sue lotte intestine, si basa su un principio di verificabilità e consenso negoziato tra pari, con un storico delle modifiche completamente trasparente. Grokipedia sostituisce questo processo con un “oracolo” proprietario. Promette neutralità attraverso il “ragionamento dai primi principi”, spesso ancorato a una logica di stampo fisico-matematico, ma questo approccio è esso stesso un’ideologia tecnica.

Come può un modello addestrato anche sui post di X – una piattaforma nota per polarizzazione e disinformazione – distillare una verità oggettiva? L’architettura tecnica è elegante, ma il presupposto che l’AI possa trascendere i bias umani piuttosto che amplificarli e cristallizzarli è una delle grandi questioni irrisolte del campo.

La posta in gioco: non solo un’enciclopedia, ma il futuro dell’informazione

Grokipedia non è un progetto isolato. È il tentativo di xAI di costruire un pilastro fondamentale nell’ecosistema di Musk: una fonte di conoscenza autorevole e integrata che possa alimentare non solo ricerche occasionali, ma anche chatbot, assistenti personali e, in prospettiva, qualsiasi sistema che richieda informazioni contestuali. È significativo che Musk abbia parlato di rinominarla un giorno “Enciclopedia Galattica”, un riferimento al sogno di una conoscenza universale. Il rischio, però, è quello di creare una “verità” monolitica, efficiente e inappellabile, ma opaca nelle sue origini e nei suoi meccanismi di correzione.

La sfida lanciata a Wikipedia è reale e costringerà la fondazione senza scopo di lucro a riflettere su lentezze, burocrazia e squilibri demografici nella sua base di contributori. Tuttavia, mentre Wikipedia è un bene comune digitale il cui codice e i cui processi sono scrutinabili, Grokipedia è un prodotto aziendale.

La sua “verità” è un output proprietario, soggetto alle priorità strategiche, alle necessità di finanziamento (xAI è in una maxi-raccolta da 20 miliardi di dollari) e alla visione del mondo del suo proprietario.

In un’epoca di agenti AI autonomi, il pericolo è una deriva verso un ecosistema informativo chiuso: i chatbot di OpenAI, Anthropic o Google potrebbero iniziare a citare Grokipedia, che a sua volta si nutre di dati del web, in un ciclo di referenzialità che si auto-convalida, allontanandosi sempre di più dal controllo e dal dibattito umano.

Secondo il nostro studio, Wikipedia mostrava un bias pesante o totalmente unilaterale in 6 pagine su 10 controverse, mentre Grokipedia era del tutto neutrale 3 volte su 10 e leggermente biased nelle altre 5.

— Larry Sanger, co-fondatore di Wikipedia, citando un test effettuato con ChatGPT

La citazione di Sanger è illuminante nella sua ironia: per valutare il bias di due enciclopedie, umana e artificiale, si usa un terzo sistema di AI.

È il mondo che ci aspetta? Grokipedia rappresenta forse il più audace esperimento sociale in corso: possiamo affidare la costruzione della nostra conoscenza collettiva non a un processo sociale, per quanto imperfetto, ma a un’intelligenza artificiale che, in definitiva, risponde a un singolo uomo?

La montagna di contenuti che sta crescendo sotto i nostri occhi è imponente, ma la sua ombra potrebbe essere lunga e piena di interrogativi a cui nessun algoritmo, per ora, sa rispondere.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie