Il Paradosso dell’IA Sicura: Più Controlli per la Guerra, Meno per la Pubblicità?
OpenAI introdurrà pubblicità contestuale in ChatGPT free analizzando le conversazioni, mentre fissa rigide regole etiche per l'uso militare dell'IA.
La scelta di mostrare annunci basati sulle conversazioni precedenti degli utenti contrasta con i rigidi limiti posti per l’uso militare
Stai chiedendo a ChatGPT idee per i regali di Natale, e tra un suggerimento e l’altro, compare un banner per un negozio online di elettronica. Non ci fai troppo caso, è il solito scotto da pagare per un servizio gratuito. Ma se quell’annuncio fosse lì perché l’AI ha analizzato non solo la tua domanda, ma anche i tuoi discorsi precedenti?
È esattamente quello che accadrà presto. OpenAI sta per introdurre pubblicità contestuali nei livelli free di ChatGPT. L’azienda promette che i messaggi promozionali non influenzeranno le risposte dell’assistente e che gli inserzionisti non avranno accesso ai dati personali.
La giustificazione è nobile: servono soldi per mantenere il servizio gratuito veloce e affidabile.
Peccato che il meccanismo di selezione di quegli annunci sembri preso da un manuale di marketing ultra-targettizzato. La scelta, infatti, incrocia argomento della chat e conversazioni passate. Un modello che, guarda caso, assomiglia molto a quello dei top performer del marketing digitale.
Il doppio binario etico dell’intelligenza artificiale
Mentre prepara il terreno per un advertising sofisticato, OpenAI ha appena firmato un accordo con il Dipartimento della Guerra americano. E qui le regole diventano improvvisamente ferree, scolpite nella pietra.
L’azienda ha tracciato tre linee rosse invalicabili per l’uso militare: niente sorveglianza di massa interna, niente direzione di armi autonome, niente decisioni automatizzate ad alto rischio. Non si transige: non fornirà modelli senza protezioni di sicurezza.
La linea rossa (molto spessa) tracciata per il Dipartimento della Guerra è talmente dettagliata da riferirsi a una direttiva sui test autonomi e specifica che, in ogni caso, le decisioni ad alto rischio richiederanno sempre un decisore umano. Soprattutto, vieta il monitoraggio senza vincoli delle persone statunitensi, e l’azienda è fiduciosa che l’accordo non consentirà sorveglianza di massa.
Da un lato, un manuale di etica iper-restrittivo per la difesa. Dall’altro, un approccio che normalizza la profilazione per vendere scarpe o viaggi. Dov’è la coerenza?
Stai tranquillo, è solo pubblicità (ma sa tutto di te)
Il paradosso è tutto qui. Per un utente che chiede consigli di lettura, l’AI può costruire un profilo basato sulle sue chat per mostrargli l’ultimo thriller in voga. Per un generale che pianifica un’operazione, quella stessa tecnologia deve rimanere volontariamente ottusa, blindata, incapace di suggerire target senza un umano in mezzo.
OpenAI difende la scelta commerciale, sottolineando che il piano pubblicitario riguarderà solo i livelli free. È la classica trade-off: il servizio costa, e qualcuno deve pagare. Il problema non è la pubblicità in sé, ma il tipo di sorveglianza necessaria per renderla efficace. Quella stessa sorveglianza che viene esplicitamente bandita nell’accordo con il Dipartimento della Guerra.
È come se in fabbrica si usassero guanti di acciaio per manipolare materiali pericolosi, ma nello spogliatoio si lasciasse la porta aperta agli sguardi di chiunque. La sicurezza diventa un concetto selettivo, calibrato non sul rischio per le persone, ma sul contraente.
La fiducia è un algoritmo a due variabili
Il vero banco di prova per OpenAI e per tutte le big tech non sarà solo mantenere le promesse fatte ai governi. Sarà spiegare agli utenti perché un principio considerato fondamentale in un campo (la privacy e la limitazione della sorveglianza) diventa negoziabile in un altro.
La prossima volta che vedremo un annuncio perfettamente calzante durante una chat, sapremo che è lì perché un algoritmo ci ha studiati. Lo stesso algoritmo che, per fortuna, si rifiuterebbe di aiutarci a pilotare un drone senza un umano al comando. È un conforto, ma non basta.
La sfida ora è una sola: le aziende che vogliono essere custodi responsabili dell’IA dovranno applicare lo stesso rigore etico sia alle applicazioni che fanno paura, sia a quelle che ci sembrano innocue. Perché è lì, nella normalità quotidiana, che si gioca la partita più importante sulla nostra percezione della tecnologia. Se accettiamo passivamente di essere profilati per un paio di cuffie scontate, che argomenti avremo per protestare contro usi ben più pericolosi?