Clickhouse raggiunge una valutazione di 15 miliardi di dollari: la svolta per l'ai?

Clickhouse raggiunge una valutazione di 15 miliardi di dollari: la svolta per l’ai?

Valutazione record per ClickHouse: la scommessa sull’unificazione di dati transazionali e analitici per l’era dell’intelligenza artificiale

Se c’è una cosa che ogni sviluppatore impara presto, spesso a proprie spese, è che la latenza non perdona.

In un’era dominata dall’hype per l’Intelligenza Artificiale Generativa, dove l’attenzione è tutta sui modelli linguistici (LLM) e sulle GPU, il vero collo di bottiglia silenzioso è rimasto l’infrastruttura dati sottostante. Non serve a nulla avere un modello capace di ragionare in millisecondi se impiega secondi interi a recuperare il contesto necessario per formulare una risposta.

È in questo scenario, tra la necessità di velocità bruta e la gestione di volumi di dati nell’ordine dei petabyte, che si inserisce la notizia di oggi: la valutazione di ClickHouse ha raggiunto i 15 miliardi di dollari in un contesto di mercato volatile, grazie a un round di serie D da 400 milioni guidato da Dragoneer.

Una cifra che potrebbe sembrare gonfiata se non si guardasse sotto il cofano di cosa sta realmente accadendo nelle server farm di aziende come Meta o Tesla.

ClickHouse non sta vendendo “magia AI”, ma sta risolvendo il problema idraulico più complesso del momento: spostare dati analitici in tempo reale a costi sostenibili.

Tuttavia, ridurre tutto a una questione finanziaria sarebbe un errore di prospettiva. La mossa di ClickHouse segna un punto di svolta tecnico: il tentativo di unificare due mondi, quello transazionale e quello analitico, che per decenni abbiamo tenuto rigorosamente separati per non far esplodere i nostri database di produzione.

Non è solo questione di velocità

Per capire perché questa valutazione non è (solo) fumo negli occhi, bisogna guardare all’architettura. ClickHouse nasce come database OLAP (Online Analytical Processing) colonnare.

A differenza dei database tradizionali (come PostgreSQL o MySQL) che scrivono i dati riga per riga, un database colonnare memorizza i valori delle colonne adiacenti fisicamente vicini sul disco. Questo dettaglio implementativo, apparentemente banale, è ciò che permette di eseguire aggregazioni su miliardi di righe in frazioni di secondo: il sistema legge solo i dati che servono per la query, ignorando tutto il resto.

La vera eleganza tecnica di ClickHouse, ereditata dai suoi giorni nei laboratori di Yandex, risiede nella compressione dei dati e nella vettorizzazione delle query. Sfruttando le istruzioni SIMD (Single Instruction, Multiple Data) delle moderne CPU, riesce a processare array di dati in parallelo con un’efficienza che soluzioni scritte in Java o Python faticano a raggiungere.

Ma la velocità da sola non giustifica 15 miliardi. Il cambio di paradigma è l’uso di questa velocità per l’AI. Aaron Katz, CEO di ClickHouse, ha inquadrato perfettamente la strategia tecnica:

Guardando al futuro, stiamo aggiungendo il supporto per carichi di lavoro unificati, transazionali e analitici, in modo che gli sviluppatori possano costruire qualsiasi tipo di applicazione basata sull’IA sulle migliori fondamenta tecniche… E stiamo espandendo la nostra offerta per includere l’osservabilità degli LLM, così che chi crea applicazioni AI possa valutare la qualità e il comportamento degli output mentre vanno in produzione.

— Aaron Katz, CEO di ClickHouse

L’annuncio del supporto nativo a Postgres e l’acquisizione di strumenti per l’osservabilità (come Langfuse) indicano che ClickHouse non vuole più essere solo il “motore veloce” che sta a fianco del database principale.

Vuole essere il centro di gravità dei dati.

L’ibridazione necessaria

Siamo onesti: la gestione delle pipeline ETL (Extract, Transform, Load) è l’incubo di ogni data engineer. Spostare dati da un database transazionale (dove avvengono gli acquisti o le registrazioni) a un data warehouse (dove si fanno le analisi) introduce latenza, costi e fragilità.

Le origini del progetto come database open source ad alte prestazioni hanno permesso a ClickHouse di dominare il settore dell’analisi dei log e della telemetria, ma per diventare l’infrastruttura portante dell’AI moderna, doveva evolversi.

L’introduzione di funzionalità transazionali e la compatibilità diretta con il protocollo Postgres sono mosse audaci. Tecnicamente, trasformare un motore OLAP in qualcosa che gestisca decentemente le transazioni è una sfida ingegneristica notevole, che rischia di compromettere le prestazioni se non implementata con rigore chirurgico.

Se ClickHouse riuscisse davvero a eliminare la necessità di spostare i dati tra sistemi diversi per alimentare gli agenti AI, il risparmio in termini di complessità architetturale sarebbe immenso.

Immaginate un agente AI che deve analizzare lo storico ordini di un cliente mentre chatta con lui. Oggi, questo richiede spesso di interrogare due o tre sistemi diversi (un database SQL per i dati recenti, un warehouse per lo storico, un vector store per la semantica).

Unificare tutto questo in un’unica piattaforma performante è il “Santo Graal” che giustifica l’interesse degli investitori.

Questa visione si sposa con il concetto di “Agentic Analytics”, ovvero l’idea che l’analisi dei dati non sia più un compito passivo svolto da umani su dashboard statiche, ma un processo attivo guidato da agenti software.

Ogni progresso nella tecnologia dei dati ha riguardato la riduzione della distanza tra domande e risposte. Unendo le forze con LibreChat, stiamo affrontando questa distanza. Ora, qualsiasi utente può parlare direttamente a petabyte di dati e ottenere intuizioni istantanee e azionabili.

— Aaron Katz, CEO di ClickHouse

Oltre l’hype dell’ai

C’è però un aspetto critico da considerare.

La corsa all’oro dell’infrastruttura AI sta portando molte aziende a etichettare come “AI-ready” prodotti che sono semplicemente database veloci. ClickHouse ha il vantaggio di essere open source alla base, il che garantisce una trasparenza sul codice che manca a concorrenti chiusi come Snowflake o Databricks. Tuttavia, la pressione di una valutazione a 15 miliardi spinge inevitabilmente verso la monetizzazione dei servizi cloud gestiti (ClickHouse Cloud), creando quella tensione classica tra la comunità open source e gli interessi commerciali.

La strategia di acquisizione, mirata a ridurre la distanza tra le domande degli utenti e le risposte dei dati integrando interfacce di chat e osservabilità, suggerisce che ClickHouse sta cercando di salire nella catena del valore.

Non più solo “idraulica” per i dati, ma interfaccia intelligente.

L’osservabilità degli LLM, in particolare, è un campo minato tecnico. Capire perché un modello ha generato una certa risposta richiede di tracciare token, latenze e retrieval dei vettori in tempo reale. Fare questo su scala massiva è un problema di “big data” puro.

Utilizzare ClickHouse stesso per monitorare le applicazioni costruite su ClickHouse è una meta-soluzione elegante che piace molto agli ingegneri: usare lo stesso martello per piantare il chiodo e per costruire la casa.

Resta da vedere se l’azienda riuscirà a mantenere la sua promessa di efficienza e leggerezza mentre aggiunge strati di complessità per supportare vettori, transazioni e interfacce AI. La storia del software è piena di strumenti eccezionali diventati “bloatware” nel tentativo di fare tutto per tutti.

ClickHouse riuscirà a rimanere la Ferrari dei database o diventerà un SUV di lusso troppo pesante per correre davvero?

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie