Similarweb e Manus: l’intelligenza artificiale incontra i dati in tempo reale
Similarweb si trasforma: da dashboard per umani a fornitore di dati in tempo reale per l’intelligenza artificiale, aprendo nuove prospettive per l’automazione delle decisioni aziendali
C’è un dettaglio tecnico che spesso sfugge quando si parla di intelligenza artificiale generativa applicata al business: i modelli, per quanto sofisticati, sono essenzialmente ciechi rispetto al presente.
Un LLM (Large Language Model) addestrato fino al 2024 non ha idea di cosa stia succedendo oggi sul sito di un vostro concorrente. È qui che la partita si sposta dall’algoritmo al dato, o meglio, all’infrastruttura che alimenta quel dato in tempo reale.
La recente mossa di Similarweb con il lancio di Web Intelligence 4.0 e la contestuale partnership con Manus non è semplicemente un aggiornamento di versione software. È un segnale che l’azienda israeliana sta cercando di trasformarsi da fornitore di dashboard per umani a fornitore di “ground truth” (verità fondamentale) per macchine.
L’obiettivo non è più solo mostrare un grafico a un marketing manager, ma fornire un flusso strutturato di dati che un agente AI possa ingerire, elaborare e utilizzare per prendere decisioni autonome.
Non è un caso che Manus abbia annunciato di voler integrare la piattaforma di intelligence nei propri agenti AI proprio in questi giorni. L’architettura sottostante a questa integrazione rivela la vera natura della sfida: evitare le allucinazioni dei modelli fornendo loro un contesto digitale verificato.
Senza questo strato di dati empirici, qualsiasi “strategia di marketing” generata da un’IA è poco più di una congettura probabilistica ben scritta.
Sotto il cofano: API, MCP e la fine della GUI
Tecnicamente, stiamo assistendo alla transizione verso quello che nel settore chiamiamo “headless intelligence”. Fino a ieri, il valore di piattaforme come Similarweb risiedeva nella loro interfaccia grafica (GUI): dashboard curate, grafici a torta, e flussi di clic visivi.
Con Web Intelligence 4.0, l’eleganza tecnica non sta nel pixel, ma nel protocollo.
L’adozione di standard come l’MCP (Model Context Protocol) è la chiave di volta. Invece di costringere gli sviluppatori a costruire scraper instabili o a gestire complesse pipeline ETL (Extract, Transform, Load) per nutrire i propri modelli, Similarweb sta esponendo i suoi dati come un contesto nativo per l’IA.
Questo significa che un agente AI non deve “leggere” una pagina web; riceve direttamente il segnale pulito: volume di traffico, keyword, referral, tassi di conversione.
Or Offer, CEO di Similarweb, ha inquadrato la questione con una chiarezza che raramente si trova nei comunicati stampa corporate:
Poiché l’IA sta rimodellando ogni settore, i dati e la visibilità digitale sono diventati le fondamenta della leadership di mercato. Web Intelligence 4.0 fornisce alle aziende il potere di ottenere un vantaggio sulla concorrenza e prosperare nel panorama digitale guidato dall’IA.
— Or Offer, CEO e cofondatore di Similarweb
Tuttavia, c’è un aspetto critico da considerare.
Centralizzare la “verità” del web in mani private crea un single point of failure (singolo punto di fallimento) concettuale. Se l’algoritmo di stima di Similarweb sbaglia, l’agente AI sbaglia a cascata, senza la capacità critica di un umano che potrebbe dire “questo dato sul traffico mi sembra sospetto”. La precisione tecnica dell’aggregazione dei dati diventa quindi non una feature, ma un requisito di sicurezza operativa.
Dai gioielli ai Big Data: la pivot dell’infrastruttura
Per capire perché questa evoluzione sia sensata, bisogna guardare al percorso ingegneristico dell’azienda. Nata nel 2007 quasi per caso — Or Offer voleva analizzare la concorrenza per il suo negozio di gioielli — Similarweb ha costruito la sua fortuna su una premessa tecnicamente ardua: mappare l’intero internet.
Non si tratta di semplice crawling; si tratta di unire miliardi di segnali digitali (clic, ricerche, transazioni anonimizzate) per ricostruire il comportamento degli utenti.
Questa capacità di processare petabyte di dati grezzi e trasformarli in insight strutturati è ciò che oggi le permette di posizionarsi come infrastruttura critica. Mentre i risultati del primo trimestre 2025 mostravano già una crescita del 14% nei ricavi, la vera notizia era l’investimento massiccio in strumenti pronti per l’IA.
L’azienda ha capito prima di altri che il mercato delle “vanity metrics” era finito.
Le aziende moderne, come Wix, non cercano più dati per riempire slide di PowerPoint, ma per automatizzare decisioni. Eden Bar-Tov, Data Engineering Team Lead di Wix, lo spiega bene:
Utilizziamo Similarweb Web Intelligence […] per ottenere una comprensione più profonda del nostro mercato, identificare tendenze emergenti e scoprire nuove opportunità. Similarweb è un vero abilitatore di dati di alta qualità che non riusciamo a trovare altrove, permettendoci di esplorare le tendenze emergenti e agire sugli insight prima di chiunque altro.
— Eden Bar-Tov, Data Engineering Team Lead presso Wix
La frase chiave qui è “agire sugli insight”. In un’architettura software moderna, l’azione è sempre più spesso delegata a un microservizio o a un agente, non a un essere umano.
Il divario tra valore tecnico e percezione di mercato
Nonostante la solidità tecnica della proposta, il mercato finanziario sembra faticare a prezzare correttamente questo cambio di paradigma. C’è una discrepanza notevole tra il valore di un’azienda SaaS (Software as a Service) tradizionale e un’azienda che fornisce l’infrastruttura dati per l’IA.
Attualmente, il titolo viene scambiato con una valutazione che suggerisce un prezzo equo quasi doppio rispetto a quello di mercato, secondo alcune analisi finanziarie basate sui flussi di cassa futuri.
Questo gap evidenzia una incomprensione di fondo: gli investitori vedono ancora uno strumento di analisi web, mentre gli sviluppatori vedono un’API essenziale per la costruzione di applicazioni autonome.
Dal punto di vista dello sviluppo software, la mossa di rendere i dati accessibili via API e protocolli compatibili con l’IA è elegante perché riduce il debito tecnico delle aziende clienti. Invece di mantenere costosi team di data scraping interni (che si rompono ogni volta che un sito cambia il CSS), si delega la complessità a un provider specializzato.
È lo stesso principio che ha reso AWS indispensabile per l’hosting: nessuno vuole più gestire i propri server fisici, e presto nessuno vorrà più gestire i propri crawler web.
Resta però una domanda aperta, che riguarda la sovranità dei dati e la trasparenza.
Affidando la “vista” delle nostre IA a un’unica entità commerciale, stiamo costruendo un ecosistema robusto o stiamo semplicemente creando una nuova scatola nera, dove l’algoritmo decisionale è open source ma i dati che lo nutrono sono proprietari e opachi?