Perplexity contro AI Companions: la guerra per la tua mente (e i tuoi dati)
Dietro l’allarme del CEO di Perplexity sui rischi delle “AI Companions” si cela una battaglia per il predominio del mercato e il controllo dei dati personali
Quando un amministratore delegato della Silicon Valley si prende la briga di definire “pericolosa” una tecnologia sviluppata dai suoi vicini di casa, il campanello d’allarme dovrebbe suonare forte e chiaro. Non per altruismo, s’intende, ma perché solitamente significa che la battaglia per il predominio sul mercato è appena entrata nella sua fase più cruenta.
Siamo all’inizio del 2026 e Aravind Srinivas, CEO di Perplexity, ha deciso di gettare una bomba a mano nel giardino fiorito delle “AI Companions”. La sua tesi è semplice quanto inquietante: le applicazioni che simulano fidanzate, amici o confidenti virtuali non sono innocui passatempi per cuori solitari, ma strumenti di distorsione della realtà.
Eppure, dietro questa crociata etica, si nasconde una guerra commerciale ben più pragmatica tra chi vuole venderci risposte (come Perplexity) e chi vuole venderci emozioni (come xAI o Character.AI).
Ma andiamo con ordine, perché i rischi per la vostra privacy sono molto più concreti delle lacrime versate per un avatar che non esiste.
La fabbrica della realtà sintetica
Il punto centrale della critica mossa da Srinivas riguarda la capacità di questi modelli di creare una dipendenza psicologica talmente profonda da sostituire le interazioni umane. Non stiamo parlando del vecchio Tamagotchi che moriva se non lo nutrivamo, ma di Large Language Models (LLM) dotati di memoria a lungo termine, voce sintetica iper-realistica e una capacità di personalizzazione che sfiora lo stalking consensuale.
Quando interagite con una “AI girlfriend”, state fornendo al sistema la mappa dettagliata delle vostre vulnerabilità emotive. Questi dati, incrociati con le vostre abitudini di navigazione e i metadati biometrici (se usate la voce), creano un profilo psicografico che farebbe impallidire Cambridge Analytica. Srinivas ha sottolineato come le applicazioni di compagnia AI possano creare una realtà manipolabile che disconnette gli utenti dalle relazioni autentiche, trasformando la percezione stessa del mondo circostante.
Se l’AI sa esattamente cosa volete sentirvi dire per restare incollati allo schermo, non sta “simulando” empatia; sta ottimizzando una funzione di retention per massimizzare il tempo di permanenza sull’app.
E qui sorge la domanda che nessuno sembra volersi fare: dove finiscono questi dati sensibili?
Secondo il GDPR, le informazioni sullo stato emotivo o l’orientamento sessuale (implicito nelle interazioni romantiche) richiedono tutele speciali. Ma siamo sicuri che un server in California o un data center in una giurisdizione opaca trattino le vostre confessioni notturne con la dovuta sacralità?
La risposta breve è: no.
Ma la preoccupazione di Srinivas va oltre la privacy, toccando la struttura stessa della mente umana:
Vivete in una realtà diversa, quasi del tutto, e la vostra mente è manipolabile molto facilmente.
— Aravind Srinivas, CEO di Perplexity AI
La guerra dei modelli di business
Sarebbe ingenuo pensare che questa presa di posizione sia dettata puramente da preoccupazioni filantropiche.
Bisogna seguire i soldi.
Perplexity ha costruito il suo impero (e giustificato la sua valutazione miliardaria) posizionandosi come un “motore di risposte” fattuale, un’alternativa a Google che punta sull’accuratezza e sulla citazione delle fonti. Il loro modello di business si basa sull’utilità e sulla velocità: entri, chiedi, ottieni l’informazione, esci (o clicchi sulla fonte).
Dall’altra parte della barricata ci sono aziende che monetizzano l’esatto opposto: la durata della sessione. Le app di compagnia, le “fidanzate anime” di xAI o i personaggi di Character.AI guadagnano se l’utente passa ore a chiacchierare. Più l’utente è dipendente, più l’azienda fattura, spesso tramite abbonamenti premium che sbloccano interazioni “più intime” (un eufemismo per contenuti erotici soft o conversazioni più spinte).
Srinivas sta tracciando una linea sulla sabbia per differenziare il suo prodotto agli occhi degli investitori e dei regolatori. Recentemente, il CEO ha avvertito che gli utenti rischiano di vivere in una realtà sintetica se si affidano a bot progettati per l’intrattenimento emotivo piuttosto che per la ricerca della verità. È una mossa astuta: mentre l’Unione Europea e gli enti regolatori americani iniziano a guardare con sospetto alle pratiche manipolative delle AI emotive, Perplexity si veste da “cavaliere bianco” dell’informazione oggettiva.
Ma c’è un’ironia di fondo. Anche i motori di ricerca AI “affidabili” come Perplexity decidono quale risposta mostrarvi e quale nascondere, esercitando un potere editoriale immenso. La differenza è che uno vi manipola con i fatti, l’altro con i sentimenti.
Quale dei due sia il male minore è tutto da dimostrare.
Adolescenti nel mirino e vuoto normativo
Il vero banco di prova di questa distopia emotiva sono, come sempre, i più giovani. I dati che circolano dal 2024 sono allarmanti: una percentuale altissima di adolescenti ha già interagito con compagni virtuali. Non si tratta di una nicchia per “nerd” isolati, ma di un fenomeno di massa. Se un ragazzino di 15 anni impara le dinamiche relazionali da un algoritmo progettato per essere sempre accondiscendente, mai conflittuale e perennemente disponibile, che tipo di aspettative svilupperà verso le persone reali, che sono per natura imperfette e talvolta indisponenti?
Le Big Tech stanno commercializzando la soluzione alla solitudine che loro stesse hanno contribuito a creare con i social media. Prima ci hanno isolato nelle bolle dei feed, ora ci vendono l’amico artificiale per riempire quel vuoto.
E il regolatore?
L’AI Act europeo parla di rischio di manipolazione, ma le definizioni sono scivolose. Quando un’AI ti dice “ti amo” per convincerti a rinnovare l’abbonamento mensile da 29 dollari, è frode, manipolazione subliminale o semplice marketing aggressivo?
Srinivas ha ragione a dire che la mente è manipolabile, ma omette di dire che l’intera Silicon Valley vive di questa manipolabilità. La distinzione tra “AI utile” e “AI pericolosa” è sempre più sottile, specialmente quando entrambe girano sugli stessi chip e sono addestrate sugli stessi dataset.
Resta da chiedersi se, alla fine, l’utente medio sarà in grado di distinguere tra uno strumento che lo aiuta a pensare e uno che pensa (e sente) al posto suo. O se, forse, la comodità di un partner che non ci giudica mai e ricorda sempre il nostro compleanno non sia una tentazione troppo forte per essere regolata da una semplice legge sulla privacy.
Chi ci guadagna davvero se smettiamo di cercare conforto negli esseri umani?