Meta ridimensiona il Metaverso e punta sull’Intelligenza Artificiale: un’analisi del cambio di strategia
Il dietrofront di Meta: la fine del sogno del Metaverso e il costoso passaggio all’Intelligenza Artificiale
Se c’è una costante nel mondo dello sviluppo software, è che il debito tecnico prima o poi presenta il conto.
E nel caso di Meta, quel conto ammonta a oltre 70 miliardi di dollari di perdite operative accumulate dal 2020 a oggi nella divisione Reality Labs. La notizia che sta rimbalzando tra le board di discussione della Silicon Valley e le redazioni tech non sorprende chi osserva il codice sorgente delle strategie aziendali da qualche tempo, ma l’entità è comunque significativa: un taglio netto del personale, una ristrutturazione che sa di ammissione di colpa architetturale.
Meta ha deciso di ridimensionare drasticamente le ambizioni puramente virtuali per concentrarsi su un’infrastruttura più tangibile e, tecnicamente, più scalabile: l’Intelligenza Artificiale. Non è solo una questione di bilancio, ma di fisica computazionale. Il “Metaverso”, così come immaginato nel rebranding del 2021, richiedeva una potenza di calcolo locale e una fedeltà grafica che l’hardware mobile attuale fatica a sostenere senza compromessi inaccettabili sull’esperienza utente.
Al contrario, l’AI generativa sposta il carico pesante sul cloud, rendendo l’hardware lato utente un semplice endpoint leggero. È una vittoria dell’architettura client-server sull’elaborazione edge forzata.
Eppure, dietro i numeri percentuali, ci sono team di ingegneri, designer e sviluppatori che hanno lavorato su stack tecnologici complessi, ora considerati “deprecati” dal management. Un report recente indica che Meta si prepara a licenziare circa il 10% dello staff della divisione Reality Labs, colpendo in modo chirurgico proprio quei settori che dovevano essere il futuro dell’azienda.
Il costo dell’astrazione prematura
Per capire la gravità della situazione, bisogna guardare a chi viene colpito.
Non si tratta di tagli lineari. Le scuri si stanno abbattendo sui team che sviluppano i visori Quest e, soprattutto, su Horizon Worlds. Per un tecnico, Horizon è sempre stato un prodotto problematico: un ambiente chiuso, proprietario, con scelte di design (come gli avatar senza gambe per anni) che tradivano limiti nel tracciamento cinematico inverso e nel rendering pipeline. Cercare di costruire un “nuovo internet” su una piattaforma che faticava a girare fluidamente senza causare motion sickness è stato un azzardo ingegneristico notevole.
Le voci di corridoio, confermate da diverse fonti interne, suggeriscono che l’azienda stia pivotando verso una strategia dove l’hardware è meno “immersivo” e più “assistivo”. Andrew Bosworth, CTO di Meta e figura chiave dietro Reality Labs, ha convocato una riunione d’emergenza che ha il sapore di un post-mortem su un progetto fallito.
Andrew Bosworth, chief technology officer di Meta che supervisiona i Reality Labs, ha convocato una riunione per mercoledì e ha esortato il personale a partecipare di persona.
— Reporter di SiliconANGLE
La richiesta della presenza fisica, in un’azienda che voleva farci lavorare tutti in uffici virtuali, è l’ironia suprema che chiude il cerchio. Ma c’è una logica ferrea in questo: mentre il VR richiede isolamento, i nuovi dispositivi su cui Meta vuole puntare — come gli occhiali Ray-Ban — richiedono integrazione con il mondo reale.
E qui l’AI gioca in casa.
Il management ha pianificato azioni drastiche privilegiando gli investimenti nell’AI rispetto allo sviluppo del metaverso, segnando un cambio di paradigma fondamentale nel modo in cui l’azienda alloca le risorse di R&D.
Non è un segreto che gli occhiali Ray-Ban Meta abbiano sorpreso per le vendite, mentre i Quest, nonostante siano pezzi di hardware ammirevoli per il rapporto qualità-prezzo, restano dispositivi ad alto attrito.
Indossare un visore è un “impegno”; indossare occhiali da sole è naturale.
Dal punto di vista dello sviluppo, integrare un modello Llama 4 (o successivi) in un paio di occhiali via API è un problema di latenza e connettività, risolvibile con il 5G e l’edge computing. Renderizzare un mondo 3D persistente a 90fps su un processore mobile è un problema di termodinamica.
L’eleganza dell’invisibile vs la forza bruta
La critica tecnica che molti di noi muovevano al progetto Metaverso di Zuckerberg era la sua natura “chiusa” e pesante. Il web, quello vero, ha vinto perché è basato su protocolli aperti (HTTP, HTML) e leggerezza. Horizon Worlds cercava di essere un sistema operativo, un browser e un sito web tutto insieme, fallendo nella modularità.
L’AI, al contrario, è l’infrastruttura invisibile per eccellenza.
Non ha bisogno di una UI complessa; vive nel backend. Il taglio dei fondi ai team VR è anche la conseguenza della chiusura di studi storici come Ready at Dawn (autori di Lone Echo, capolavoro di locomozione a gravità zero) e Downpour Interactive. Questi studi avevano creato meccaniche di interazione in VR incredibilmente raffinate. Vedere quel know-how disperso o cancellato fa male a chi apprezza la qualità del codice e del game design. Tuttavia, la dirigenza sembra aver deciso che la priorità assoluta è ora l’intelligenza artificiale a discapito della realtà virtuale, spostando il budget dai poligoni ai parametri dei modelli linguistici.
C’è un aspetto positivo in tutto questo?
Forse la fine dell’illusione che basti buttare miliardi su un problema hardware per risolverlo. La VR ha bisogno di tempo, di miniaturizzazione dei display Micro-OLED, di batterie a stato solido, non di marketing aggressivo su mondi virtuali vuoti. L’AI, invece, è pronta oggi. È sporca, allucina, consuma troppa energia nei data center, ma funziona e scala.
Refactoring della strategia
La mossa di Meta è, in termini di sviluppo, un enorme refactoring del codice aziendale. Hanno commentato (o cancellato) le righe relative al “Metaverso come destinazione” e stanno scrivendo nuove funzioni per l'”AI come interfaccia”.
I 15.000 dipendenti di Reality Labs si sono trovati a lavorare su un ramo del repository che non verrà mai “mergiato” nel master branch della realtà quotidiana.
Per gli sviluppatori che rimangono, la sfida cambia: non più ottimizzare shader grafici, ma ridurre la latenza di inferenza dei modelli AI su dispositivi indossabili. Non più costruire gambe virtuali, ma orecchie digitali che capiscono il contesto. È un lavoro meno visivo, forse meno “sci-fi” nel senso classico del termine, ma tecnicamente più radicato nelle necessità attuali dell’interazione uomo-macchina.
Resta l’amarezza per la gestione delle risorse umane e tecniche. Costruire team di eccellenza per poi smantellarli perché il CEO ha cambiato “hype” è il difetto più grande delle Big Tech moderne. L’open source ci insegna che i progetti migliori crescono organicamente, con il contributo della comunità, non per decreto dall’alto.
Meta ha provato a forzare l’evoluzione del web con la forza bruta dei dollari, e il risultato è stato un rigetto da parte dell’ecosistema.
Ora, con il pivot sull’AI, Meta torna a fare ciò che le riesce meglio: gestire dati, algoritmi e pubblicità, lasciando che il sogno di Snow Crash torni ad essere, per l’appunto, fantascienza. La domanda che rimane sospesa non è se l’AI salverà i conti di Meta, ma se questa ennesima corsa all’oro tecnologico lascerà dietro di sé altrettante macerie digitali e umane del Metaverso.