Meta ha costruito una mappa dei nostri pensieri
Meta ha presentato TRIBE v2, un modello AI che simula le risposte neurali umane a stimoli visivi, uditivi e linguistici con una risoluzione 70 volte superiore ai modelli precedenti.
Il modello è addestrato su 700 volontari e promette di prevedere le risposte neurali a immagini, suoni e parole.
Settantavolte. È il numero con cui Meta apre l’annuncio ufficiale di TRIBE v2, il suo nuovo modello predittivo dell’attività neurale umana. Settanta volte più risoluto rispetto a modelli analoghi, con una velocità e una precisione che, stando alle parole dell’azienda, non avevano precedenti. Il tutto presentato oggi, 26 marzo 2026, come «il primo modello AI delle risposte cerebrali umane a stimoli visivi, uditivi e linguistici». Un gemello digitale del cervello, appunto. Il problema è che i gemelli digitali li costruisce chi ha interesse a specchiarsi.
Il salto quantico di Meta
TRIBE v2 promette di simulare come il cervello umano risponde a immagini, suoni e testo. Non è una metafora: il modello è addestrato su un dataset massiccio — oltre 700 volontari sani, esposti a una varietà di media che include immagini, podcast, video e testi scritti. Il risultato, secondo Meta, è un aumento di risoluzione di 70 volte rispetto a modelli simili, con una velocità e un’accuratezza che l’azienda definisce senza precedenti. Numeri che, presi così, impressionano. Ma i numeri isolati dal contesto sono la forma più elegante di comunicazione selettiva.
La domanda che rimane aperta dopo aver letto l’annuncio è semplice e scomoda: un’azienda il cui modello di business si fonda sulla profilazione comportamentale ha appena costruito uno strumento che mappa le reazioni neurali umane a contenuti mediatici. Perché proprio ora? E soprattutto — a chi appartiene questa mappa?
Dietro il modello: dati e dubbi
Per capire da dove viene TRIBE v2, bisogna guardare alle sue fondamenta. Il punto di partenza è il modello con cui Meta ha vinto il premio Algonauts 2025: uno strumento addestrato sulle registrazioni fMRI a bassa risoluzione di appena quattro individui. Quattro. Da lì a un dataset di oltre 700 volontari il salto sembra enorme, ed è proprio qui che la narrazione di Meta acquista la sua forza retorica. Ma è anche qui che inizia a scricchiolare.
Il passaggio da quattro soggetti a settecento non è di per sé una garanzia di affidabilità del modello: dipende da come quei dati sono stati raccolti, da chi erano i volontari, da quali bias demografici o culturali portino con sé le loro risposte neurali. L’annuncio non entra in questi dettagli. Come recita la ricerca pubblicata da Meta, il modello stabilisce l’intelligenza artificiale come «quadro unificante per esplorare l’organizzazione funzionale del cervello umano» — un’affermazione ambiziosa che presuppone che le risposte neurali di 700 volontari sani siano rappresentative dell’intera complessità della cognizione umana. È un salto logico considerevole. Il vecchio dataset era a bassa risoluzione e basato su quattro persone: se questo era il punto di partenza, quanto possiamo fidarci della traiettoria su cui si fonda il salto in avanti?
C’è poi la questione dei dati stessi. Settecento persone hanno consentito che le loro risposte cerebrali venissero registrate e usate per addestrare un modello di proprietà di Meta. Il GDPR impone standard precisi sul consenso per il trattamento di dati biometrici e sanitari — che le registrazioni fMRI certamente rappresentano. Non è chiaro dall’annuncio in quale giurisdizione siano stati raccolti i dati, né quali garanzie siano state date ai partecipanti riguardo all’uso commerciale futuro delle loro risposte neurali. Sono domande che un regolatore europeo farebbe subito. E che Meta, per il momento, non ha risposto.
Le implicazioni nascoste
Meta inquadra TRIBE v2 come uno strumento al servizio della scienza. I potenziali benefici che cita sono reali e non banali: un modello in grado di prevedere le risposte cerebrali umane potrebbe trasformare la comprensione e il trattamento di condizioni neurologiche che colpiscono centinaia di milioni di persone nel mondo. Potrebbe anche, sostiene l’azienda, guidare lo sviluppo di sistemi di intelligenza artificiale direttamente a partire da principi neuroscientifici — il che significherebbe costruire IA non più solo per ottimizzare metriche di performance, ma per avvicinarsi al funzionamento reale della cognizione umana. Sono promesse che meritano di essere prese sul serio.
Però. Un’azienda che controlla piattaforme usate da miliardi di persone, che vende pubblicità basata sull’attenzione, e che ha appena costruito un modello in grado di prevedere come il cervello umano reagisce a immagini, suoni e testi — quella stessa azienda sta descrivendo questo strumento esclusivamente come un contributo alla neuroscienza. Il conflitto di interessi non è un’ipotesi: è strutturale. Chi controllerà questo quadro unificante per il cervello umano? Chi decide per quali scopi viene usato, e chi verifica che quei scopi non includano il perfezionamento dei sistemi di raccomandazione dei contenuti o la calibrazione degli algoritmi pubblicitari?
TRIBE v2 potrebbe davvero ridisegnare la ricerca sul cervello. Ma il dubbio resta, e non è piccolo: un modello AI può essere lo specchio fedele dei nostri neuroni, oppure è uno specchio deformante costruito da chi ha tutto l’interesse a vedere in noi ciò che vuole vendere? La risposta a questa domanda non sta nei paper di ricerca. Sta nelle scelte che Meta farà nei prossimi anni su come — e per chi — questo modello viene davvero usato.