Cloudflare trasforma il web in un casello per l'intelligenza artificiale

Cloudflare trasforma il web in un casello per l’intelligenza artificiale

Cloudflare acquisisce Human Native e trasforma il web in un casello autostradale per l’IA, aprendo un mercato di dati dove la privacy degli utenti rischia di essere compromessa

Se c’è una cosa che la storia recente della Silicon Valley ci ha insegnato, è che quando una Big Tech vi offre uno scudo gratuito, sta quasi sicuramente prendendo le misure per vendervi l’armatura completa l’anno successivo. L’annuncio odierno dell’acquisizione di Human Native da parte di Cloudflare non fa eccezione.

Dietro la retorica salvifica del “salvare l’Internet aperto” e dare potere ai creatori, si nasconde una delle mosse più astute e potenzialmente pericolose per l’architettura della rete e per la nostra privacy: trasformare l’infrastruttura stessa del web in un casello autostradale per l’intelligenza artificiale.

Fino a ieri, Cloudflare era il guardiano che decideva chi entrava e chi usciva dai siti web, proteggendo milioni di domini da attacchi DDoS e bot malevoli. Oggi, con l’integrazione della tecnologia britannica di Human Native, l’azienda smette di essere solo il buttafuori e diventa il broker.

L’idea è semplice quanto inquietante: creare un mercato automatizzato dove i dati dei siti web vengono impacchettati, prezzati e venduti agli sviluppatori di IA per l’addestramento dei modelli.

Non è un caso che questa mossa arrivi ora. Per tutto il 2025 abbiamo assistito a cause legali, polemiche sul copyright e un braccio di ferro estenuante tra editori e aziende di IA. Cloudflare si inserisce in questo caos non come arbitro imparziale, ma come colui che possiede il campo da gioco.

E, come ben sappiamo, il banco vince sempre.

Il pizzo digitale: da guardiani a broker

Per capire la portata di questa operazione, bisogna unire i puntini con quanto accaduto la scorsa estate. Nel luglio 2025, Cloudflare ha lanciato “AI Crawl Control”, uno strumento che permetteva ai proprietari di siti web di bloccare i bot di scraping con un clic.

Sembrava una vittoria per la privacy e il diritto d’autore. In realtà, era probabilmente un test di mercato su scala globale.

Con quella mossa, l’azienda ha mappato esattamente chi aveva contenuti di valore e chi era disposto a chiudere le porte all’IA. Ora che hanno i dati su chi vuole proteggersi, offrono la soluzione per monetizzare quella protezione.

Cloudflare intende rafforzare la propria offerta alle aziende di intelligenza artificiale acquisendo Human Native, una startup che ha costruito proprio l’infrastruttura per trasformare i contenuti grezzi in “carburante” licenziato per gli algoritmi.

Matthew Prince, CEO di Cloudflare, presenta l’operazione con toni quasi filantropici, parlando di un nuovo modello economico per il web.

L’anno scorso abbiamo dato a editori e creatori gli strumenti per controllare quali bot potessero accedere ai loro contenuti, ma il vero obiettivo è sempre stato quello di contribuire a creare un nuovo modello economico che funzioni davvero per la prossima fase di Internet. Il team di Human Native ci aiuterà ad accelerare questa fase successiva, in cui costruiremo gli strumenti che consentiranno ai contenuti di essere scoperti, prezzati e acquistati attraverso canali trasparenti. Questa acquisizione riguarda la costruzione degli strumenti necessari per proteggere la longevità dell’Internet aperto.

— Matthew Prince, co-fondatore e CEO di Cloudflare

La domanda che nessuno sembra porsi è: “aperto” per chi?

Se l’accesso ai dati diventa una transazione finanziaria gestita da un intermediario che controlla già il 20% del traffico web mondiale, stiamo davvero proteggendo l’ecosistema o stiamo creando un monopolio de facto sulla conoscenza digitale?

Inoltre, il conflitto di interessi è lampante. Cloudflare guadagna proteggendo i siti dai bot illegali, e ora guadagnerà facilitando l’accesso ai bot “paganti”.

È come se un’azienda di antifurti iniziasse a vendere le chiavi di casa vostra ai visitatori, trattenendo una commissione.

La mercificazione della privacy (e il GDPR dimenticato)

L’aspetto più scivoloso di questa operazione riguarda la privacy degli utenti e la normativa europea. Human Native nasce con l’idea di “ripulire” i dati per renderli digeribili dalle IA. Ma cosa succede ai dati personali contenuti in quei testi, in quelle immagini, in quei commenti sui blog che ora verranno impacchettati e venduti?

Se un editore decide di vendere l’accesso ai propri archivi tramite il marketplace di Cloudflare, ha chiesto il consenso agli utenti menzionati in quegli articoli per finire nel ventre di un LLM (Large Language Model)?

Il GDPR è chiaro sulla finalità del trattamento: i dati raccolti per informare non possono essere automaticamente venduti per addestrare software commerciali senza una base giuridica solida.

James Smith, co-fondatore di Human Native, utilizza una metafora musicale per descrivere la loro missione, suggerendo che l’attuale stato dell’IA sia un Far West illegale che necessita di normalizzazione.

Abbiamo fondato Human Native con l’obiettivo di far uscire l’IA generativa dalla sua era Napster. Crediamo che i creatori debbano avere controllo, compensazione e credito quando il loro lavoro viene utilizzato per alimentare i prodotti di IA, garantendo un compenso equo per i detentori dei diritti e consentendo al contempo uno sviluppo responsabile dell’IA.

— Dr. James Smith, co-fondatore e CEO di Human Native

Il paragone con Napster è affascinante ma fuorviante. Con la musica si trattava di file specifici. Con l’IA si parla di scansionare l’intera esperienza umana digitalizzata.

Trasformare tutto questo in un asset finanziario senza un dibattito pubblico sui diritti dei soggetti dei dati (noi), e non solo dei titolari dei diritti d’autore (le aziende), è un rischio enorme. Stiamo permettendo che la nostra identità digitale venga venduta all’ingrosso, con la scusa che “gli editori devono essere pagati”.

Non sorprende che questa visione fosse già nell’aria: l’amministratore delegato Matthew Prince aveva già accennato in passato alla possibilità di remunerare i creatori come futuro pilastro del business, preparando il terreno per questo preciso momento storico in cui la protezione si trasforma in profitto.

Chi controlla i tubi controlla la verità

C’è poi un problema sistemico. Centralizzare il mercato dei dati di addestramento nelle mani di chi gestisce l’infrastruttura di rete crea un collo di bottiglia pericoloso.

Chi non può permettersi di pagare il “pedaggio” di Cloudflare/Human Native su quali dati addestrerà le proprie IA? Probabilmente su dati di scarto, vecchi o sintetici.

Si rischia di creare un sistema a due velocità: un’IA “premium”, addestrata su dati freschi, verificati e pagati (disponibile solo alle grandi corporation che possono permettersi le tariffe di Cloudflare), e un’IA “dei poveri”, allucinata e imprecisa.

E dato che Human Native è stata fondata nel Regno Unito con l’obiettivo di creare un mercato dei dati per l’IA proprio per strutturare questo scambio, l’acquisizione sancisce che la qualità dell’informazione è ora ufficialmente una merce di lusso riservata al B2B.

Inoltre, chi decide quale contenuto è “Human Native” e quale no? In un mondo inondato di contenuti sintetici, Cloudflare si erge a certificatore di autenticità.

Ma se i suoi algoritmi sbagliano?

Se un sito legittimo viene etichettato come “bassa qualità” o “bot-generated”, viene tagliato fuori dal nuovo mercato economico dell’IA. Il potere di vita o di morte economica su editori e creatori si concentra ulteriormente in un unico punto di fallimento.

Siamo di fronte all’istituzionalizzazione del data mining come modello di business primario del web.

Non più l’eccezione, non più il furto, ma la norma contrattuale. Resta da chiedersi se, in questo grande bazar dei dati automatizzato, ci sia ancora spazio per un internet che serva gli esseri umani, o se stiamo semplicemente lucidando il pavimento di un centro commerciale costruito esclusivamente per le macchine.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie