Meta Avocado: l’AI proprietaria supera Llama e mira a ads e contenuti.
Le ultime mosse rivelano una corsa all’efficienza computazionale e alla creazione di servizi premium, necessarie per distinguersi in un mercato dove l’intelligenza artificiale sottostante sta diventando una commodity.
Mentre Meta e Perplexity AI annunciano rispettivamente un nuovo modello di punta e una funzionalità che promette di superare i limiti dell’intelligenza artificiale, è lecito chiedersi chi stia davvero guidando la corsa: l’innovazione per gli utenti o la necessità di nuovi modelli di business in un mercato saturo?
Le ultime mosse delle due aziende, rivelate in documenti interni e lanci a pagamento, raccontano una storia di efficienza computazionale venduta come rivoluzione e di “consigli” di modelli che nascondono una complessa catena di approvvigionamento e costi.
Siamo sicuri che l’obiettivo sia la precisione dell’utente, o piuttosto il lock-in di un abbonamento premium e la raccolta di dati di confronto senza precedenti?
Perplexity AI, il motore di ricerca conversazionale che ha sempre fatto della sintesi delle fonti il suo cavallo di battaglia, ha compiuto un passo ulteriore. Dal 5 febbraio 2026, offre ai suoi abbonati più costosi la possibilità di interrogare simultaneamente tre diversi modelli di intelligenza artificiale con una singola query.
La funzionalità, chiamata “Model Council”, impiega di default Claude Opus 4.6, GPT 5.2 e Gemini 3.0, per poi far analizzare le risposte a un modello “presidente” che sintetizza il tutto, evidenziando accordi e disaccordi.
Presentata come uno strumento per la ricerca d’investimento, il fact-checking e le decisioni complesse, suona come il sogno di ogni utente esigente: avere il meglio di tutti i mondi in un’unica risposta.
Ma a parte l’ovvio appeal per una nicchia di power user, qual è la strategia sottostante?
Innanzitutto, il prezzo. Il Model Council è un esclusivo benefit del piano “Perplexity Max”, che costa 200 dollari al mese o 2.000 all’anno. Non è un dettaglio da poco.
Perplexity sta chiaramente segmentando il mercato, puntando a monetizzare pesantemente quella fascia di professionisti e aziende per cui l’accuratezza ha un prezzo, qualsiasi prezzo.
Ma c’è di più. Far girare tre modelli leader di mercato per ogni query, più un quarto modello di sintesi, ha un costo computazionale esorbitante.
Perplexity non sta solo vendendo un servizio; sta facendo un’enorme scommessa sull’efficienza della sua infrastruttura, sostenuta da un accordo triennale da 750 milioni di dollari con Microsoft Azure.
Ogni query del “Consiglio” è un costoso esperimento in tempo reale che, oltre a fatturare l’utente, fornisce a Perplexity un flusso continuo di dati comparativi sulle performance dei modelli concorrenti. Dati che valgono oro per affinare i propri algoritmi e negoziare future partnership.
Il Model Council rappresenta il nostro impegno nel fornire non solo risposte, ma prospettive bilanciate e verifiche incrociate, specialmente in scenari dove la precisione è tutto
— Aravind Srinivas, CEO di Perplexity AI
La domanda è: questa ricerca della “verità” attraverso il consenso algoritmico è realmente un beneficio per l’utente, o rischia di diventare un processo opaco che nasconde i bias intrinseci di ogni modello dietro una patina di oggettività sintetizzata?
E, soprattutto, cosa succede ai dati di quelle query ultra-sensitive su finanza o salute quando vengono processati da tre API diverse, ognuna con le proprie policy sulla retention dei dati?
L’«avocado» di Meta: efficienza estrema per un futuro (forse) chiuso
Se Perplexity gioca la carta della pluralità delle fonti AI, Meta punta tutto sulla potenza bruta e sull’efficienza domestica. Documenti interni trapelati rivelano i dettagli di “Avocado”, il grande modello linguistico su cui i Meta Superintelligence Labs (MSL) stanno lavorando per una uscita attesa nel primo semestre del 2026.
Le memorie interne, firmate dalla product manager Megan Fu, non usano mezzi termini: Avocado è descritto come “il più capace modello base pre-addestrato mai sviluppato da Meta” e, ancora nella fase di pre-training, riuscirebbe già a competere con i migliori modelli open-source sul mercato.
Il claim più audace, però, riguarda l’efficienza: secondo i benchmark interni, Avocado raggiungerebbe un’efficienza computazionale dieci volte superiore a quella del precedente modello Maverick (della famiglia Llama 4) e addirittura oltre cento volte superiore a Behemoth, il gigante Llama 4 mai rilasciato.
Qui il discorso si fa interessante, e svela la vera posta in gioco per Meta. Dopo le delusioni relative a Llama 4, la società di Mark Zuckerberg ha riorganizzato le sue armate AI sotto la guida di Alexandr Wang, fondatore di Scale AI, creando i MSL.
Avocado è il primo frutto di questa riorganizzazione e segna una potenziale, radicale inversione di rotta.
Mentre la serie Llama è stata sinora il cavallo di battaglia open-source di Meta, Avocado viene sviluppato con una logica chiaramente proprietaria.
L’efficienza stellare non è solo una questione tecnica; è il presupposto per un modello che possa essere integrato in ogni prodotto Meta (dal feed alle ads, dagli assistenti agli strumenti creativi) a costi sostenibili, e soprattutto, per essere offerto a pagamento alle aziende.
Meta sembra voler passare dalla strategia del “dominio attraverso l’open-source” a quella del “dominio attraverso il servizio premium e l’integrazione verticale”.
In un mercato dove il costo del compute è il principale collo di bottiglia, un modello 100 volte più efficiente non è solo un miglioramento: è un’arma strategica.
Ma a quale prezzo? L’abbandono della filosofia open-source, se confermato, solleva serie questioni sulla concentrazione del potere nell’AI.
I modelli come Llama hanno permesso a ricercatori, startup e concorrenti più piccoli di innovare senza dover partire da zero. Un Meta che rinchiude il suo modello più avanzato in un giardino murato priva l’ecosistema di un bene comune, spostando ulteriormente l’equilibrio di potere verso i giganti che possono permettersi di addestrare modelli proprietari.
Inoltre, l’ossessione per l’efficienza e le performance di coding lascia in secondo piano domande cruciali su come questi modelli siano addestrati, su quali dati, e con quali mitigazioni per bias, sicurezza e privacy.
L’internal memo cita performance competitive in “conoscenza, percezione visiva e capacità multilingue”, ma sono metriche che dicono poco sulla propensione del modello a generare disinformazione o sui suoi confini etici.
Il vero consiglio è per gli azionisti
Allora, cosa unisce queste due notizie apparentemente distanti? Entrambe raccontano di aziende che cercano disperatamente di differenziarsi in un mercato dove la tecnologia sottostante (i grandi modelli linguistici) sta rapidamente diventando una commodity.
Perplexity, che non addestra i suoi modelli da zero ma costruisce la sua ragion d’essere sull’accesso e la sintesi altrui, deve dimostrare di offrire un valore superiore alla semplice interfaccia chat.
Il Model Council è la sua scommessa: un prodotto così costoso da gestire che solo loro, con i loro accordi cloud e la loro specializzazione, potrebbero offrirlo. È un tentativo di costruire un moat, un fossato competitivo, fatto di complessità e costi operativi.
Meta, dall’altro lato, deve riconquistare credibilità dopo false partenze e dimostrare di poter non solo seguire, ma dettare il passo nella corsa all’AI.
Avocado, con le sue promesse di efficienza stratosferica, è la sua risposta: non cerchiamo di essere i più aperti, cerchiamo di essere i più economici ed efficaci da scalare, per dominare dall’interno il nostro stesso impero di prodotti e vendere servizi alle aziende.
La recente campagna pubblicitaria al Super Bowl per gli occhiali AI Oakley, con lo slogan “Athletic Intelligence Is Here”, conferma questa volontà di portare l’AI nel dispositivo fisico di massa, dove l’efficienza si traduce direttamente in durata della batteria e esperienza utente.
Alla fine, il “Consiglio” di Perplexity e l’“Avocado” di Meta non parlano tanto a noi utenti, ma agli investitori e al mercato.
Il primo dice: “Possiamo gestire la complessità e monetizzare l’incertezza”. Il secondo grida: “Possiamo abbattere i costi e controllare tutta la catena del valore”.
In mezzo, restano le solite, irrisolte, questioni: chi garantisce la trasparenza di questi sistemi? Dove finiscono i nostri dati quando vengono processati da tre, quattro modelli in cascata?
E siamo davvero disposti a scambiare un ecosistema AI più aperto e diversificato per qualche punto percentuale in più su un benchmark di coding o per l’illusione di una risposta “definitiva”?
La corsa all’efficienza e alla sintesi perfetta rischia di far dimenticare che, in intelligence artificiale come in democrazia, il vero valore a volte non sta nel trovare un’unica voce dominante, ma nel preservare la pluralità e la capacità di comprendere il disaccordo.