Super Bowl LX: il bias dell’AI nelle classifiche degli spot tra OpenAI e Anthropic
Un risultato inaspettato ha però rivelato una “guerra fredda” tra i modelli di business dell’intelligenza artificiale, dove gli assistenti AI hanno mostrato un pregiudizio contro gli spot delle grandi aziende tecnologiche concorrenti.
Il Super Bowl non è più solo una partita di football americano, ma un gigantesco laboratorio di marketing dove ogni anno si sperimentano le tendenze del futuro.
Quest’anno, però, il laboratorio ha prodotto un risultato inaspettato che rivela molto di più sui giudici che sugli spot giudicati.
Durante il Super Bowl LX, diverse testate e startup hanno chiesto agli assistenti AI più popolari – come ChatGPT di OpenAI, Gemini di Google e Claude di Anthropic – di stilare una classifica in tempo reale delle pubblicità più efficaci.
Quello che è emerso, e che Adweek ha definito come il nuovo “share of prompt”, è una curiosa omissione: gli spot delle grandi aziende tecnologiche concorrenti, come quelli di Google, Microsoft e Meta, sono sistematicamente scomparsi o sono stati declassati nelle classifiche generate da alcuni di questi chatbot.
Non si tratta di un semplice bug o di una svista.
È il sintomo di una guerra fredda che si sta combattendo dietro le quinte dell’intelligenza artificiale, dove i modelli di business e le filosofie aziendali stanno iniziando a filtrare – forse in modo inconsapevole – ciò che le macchine ci dicono.
Mentre i creativi delle agenzie pubblicitarie si affannavano a produrre spot da sette milioni di dollari, gli algoritmi che li avrebbero giudicati erano già programmati, in modi più o meno espliciti, per avere dei pregiudizi.
La guerra fredda degli assistenti AI: pubblicità sì vs pubblicità no
La ragione più evidente di queste strane classifiche risiede in una divergenza fondamentale su come monetizzare l’AI conversazionale.
Da un lato c’è OpenAI, che ha iniziato a testare annunci contestuali nella versione gratuita di ChatGPT. Dall’altro c’è Anthropic, che ha fatto dell’assenza di pubblicità il suo cavallo di battaglia e il suo principale argine competitivo.
La scorsa settimana, proprio durante il Super Bowl, Anthropic ha lanciato uno spot con un messaggio diretto e provocatorio: “Arriveranno le pubblicità nell’AI. Ma non su Claude”.
Claude rimarrà privo di pubblicità. I nostri utenti non vedranno link ‘sponsorizzati’ accanto alle loro conversazioni con Claude; né le risposte di Claude saranno influenzate dagli inserzionisti o includeranno inserzioni di prodotti di terze parti che i nostri utenti non hanno richiesto.
— Anthropic, annuncio ufficiale
Questa presa di posizione non è solo una scelta di marketing, ma un principio operativo che potrebbe influenzare il modo in cui Claude “percepisce” e valuta il contenuto commerciale nel mondo.
Se un sistema è progettato per considerare le pubblicità come un elemento estraneo, se non addirittura negativo, per l’esperienza utente, è plausibile che il suo algoritmo le consideri meno rilevanti o memorabili quando le incontra “in natura”, come in uno spot televisivo.
È un bias di progettazione, non di dati.
D’altra parte, OpenAI difende il suo approccio, sostenendo che gli annunci sono chiaramente etichettati e non influenzano le risposte del chatbot.
Ma il CEO Sam Altman ha tracciato una linea netta, definendo “catastrofico” un modello in cui si paga per essere in cima alle classifiche, distinguendolo dal posizionamento contestuale che la sua azienda sta testando.
Quando l’ai giudica l’ai: il conflitto di interesse è nel codice?
La questione diventa più spinosa quando si considera che questi stessi chatbot vengono utilizzati per analizzare e classificare le performance pubblicitarie, comprese quelle dei loro diretti concorrenti.
È come se la giuria di un festival cinematografico fosse composta da registi in gara tra loro.
Gli strumenti di ranking in tempo reale, come l’”AI Influence Index” di Emberos, misurano metriche come la frequenza di menzione e l’accuratezza descrittiva degli spot all’interno delle risposte AI.
Ma cosa succede se il motore di valutazione – ad esempio, ChatGPT – ha un interesse commerciale nel promuovere un certo tipo di narrativa sugli annunci, o nel de-enfatizzare quelli dei rivali?
La risposta non è necessariamente in un comando esplicito del tipo “declassa Google”.
È più sottile.
Può risiedere nei dati di addestramento, nei criteri di rilevanza o nella definizione stessa di “qualità” di un annuncio.
Microsoft, nel suo documento sulla trasparenza, ammette onestamente che i modelli riflettono “visioni sociali, pregiudizi e contenuti indesiderabili presenti nei dati di addestramento”.
Un modello addestrato a privilegiare contenuti “puliti” e non commerciali potrebbe, senza volerlo, considerare meno interessante uno spot che promuove esplicitamente un prodotto tecnologico concorrente.
È qui che il dibattito sulla trasparenza diventa cruciale. Microsoft avverte esplicitamente di non usare questi modelli in scenari ad alto rischio senza una revisione umana, ma chi pensa a uno scenario ad alto rischio come l’opinione pubblica generata durante il Super Bowl?
Il mito dell’oggettività e il futuro del bias algoritmico
L’episodio dei ranking del Super Bowl scardina un mito pericoloso: quello dell’oggettività algoritmica.
I consumatori potrebbero percepire le classifiche di un chatbot come più imparziali di un sondaggio umano, ma questa è un’illusione.
Ogni sistema di intelligenza artificiale ha un punto di vista, plasmato dai suoi creatori.
Anthropic, ad esempio, addestra Claude per essere “equilibrato” politicamente, trattando le opinioni opposte con uguale profondità, e ha sviluppato metodi di ricerca per valutare e mitigare i pregiudizi sociali attraverso il “feature steering”.
Sono sforzi encomiabili, ma dimostrano che l’imparzialità non è uno stato di default, bensì un obiettivo da raggiungere con fatica e continua correzione.
Quando questa “manutenzione dell’imparzialità” si scontra con gli interessi commerciali del settore, i risultati possono essere distorti.
Se l’obiettivo non dichiarato di un’azienda è diventare l’anti-pubblicità per attirare utenti premium, il suo sistema potrebbe imparare, nel tempo, a associare il contenuto pubblicitario a qualcosa di negativo, di rumoroso, di poco utile.
E quando gli si chiede di giudicare il miglior annuncio, questo bias potrebbe emergere in modo silenzioso, declassando non solo gli spot dei rivali, ma forse l’intera categoria della comunicazione commerciale diretta.
Alla fine, la domanda che resta sospesa non è quale sia stato il miglior spot del Super Bowl LX.
La domanda è: possiamo ancora permetterci di chiedere a un sistema, il cui stesso business model è in gioco, di giudicare il mondo che lo circonda?
Mentre le aziende si affrettano a usare l’AI per misurare ogni cosa, dall’engagement emotivo alla brand recall, l’esperimento involontario del Super Bowl ci ricorda che il termometro stesso potrebbe avere la febbre.
E in un futuro in cui le risposte degli AI assistant influenzeranno sempre più le nostre percezioni e decisioni, capire chi regola la temperatura di quel termometro non sarà solo una curiosità da marketing, ma una questione fondamentale di trasparenza e fiducia.