OpenAI ha messo le mani sulle nostre immagini
OpenAI lancia ChatGPT Images 2.0, integrando generazione immagini in piattaforma da 900 milioni di utenti settimanali, sollevando questioni antitrust e culturali.
OpenAI integra la generazione visiva in ChatGPT, usato da 900 milioni di persone ogni settimana
Da DALL-E a ChatGPT Images 2.0: cinque anni di corsa silenziosa
Per capire cosa sia successo la scorsa settimana, bisogna guardare indietro di qualche anno. Già nel gennaio 2021, OpenAI presentò il modello DALL-E originale: dodici miliardi di parametri costruiti sopra GPT-3, capaci di generare immagini partendo da descrizioni testuali. Era un esperimento di frontiera, affascinante e imperfetto, destinato a un pubblico ristretto di ricercatori e appassionati. Poi arrivò, nel novembre 2022, DALL-E 2, con immagini a risoluzione quattro volte superiore rispetto al predecessore e una qualità visiva che iniziava a sembrare credibile. Il salto, però, avvenne nell’ottobre 2023.
DALL·E 3 non fu solo un aggiornamento tecnico. Stando a la scheda tecnica del modello, si tratta di un sistema di intelligenza artificiale che prende un testo in input e genera un’immagine in output — definizione apparentemente banale, ma che descrive qualcosa di tutt’altro che neutro. Soprattutto perché, come precisato dalla stessa OpenAI, DALL·E 3 fu costruito nativamente su ChatGPT: non uno strumento separato da integrare, ma un componente pensato fin dall’inizio per vivere dentro la piattaforma conversazionale più usata al mondo. Da quel momento in poi, la direzione era chiara. ChatGPT Images 2.0 non è una sorpresa: è il punto di arrivo di una traiettoria che OpenAI ha percorso con estrema coerenza, un passo alla volta, senza che quasi nessuno alzasse la voce.
Chi controlla l’immaginazione?
Il punto non è più se l’intelligenza artificiale sappia generare belle immagini. Sa farlo, e lo fa in modo sempre più sofisticato. La domanda reale è un’altra: cosa significa quando uno stesso strumento — usato da 900 milioni di persone ogni settimana, come documentato da OpenAI stessa — diventa il filtro principale tra la nostra capacità di immaginare e la sua rappresentazione visiva? Chi decide quali immagini vengono generate e quali no? Quali bias estetici, culturali, politici vengono incorporati nei modelli? E chi controlla i controllori?
OpenAI descrive ChatGPT Images 2.0 come “una nuova era della generazione di immagini”. La retorica è quella classica del progresso inevitabile, dell’innovazione che avanza e porta benefici a tutti. Ma quando una piattaforma con oltre 50 milioni di abbonati paganti integra la produzione visiva nel flusso quotidiano di centinaia di milioni di persone, le domande che dovrebbero porsi i regolatori europei non sono tecniche. Sono politiche. L’Autorità garante della concorrenza, la Commissione europea, le autorità antitrust: qualcuno ha già aperto un fascicolo? L’integrazione verticale tra generazione testuale e visiva in un’unica piattaforma dominante è esattamente il tipo di operazione che le norme sull’AI Act e le indagini antitrust in corso sul settore tech dovrebbero guardare da vicino.
C’è poi una questione che va oltre il diritto della concorrenza. La generazione di immagini non è neutra: riflette scelte su cosa è rappresentabile, chi è rappresentato, in quale forma. Quando queste scelte sono concentrate in un’unica azienda privata, con sede negli Stati Uniti, che opera su scala planetaria, il problema smette di essere tecnologico e diventa culturale. Stiamo consegnando a OpenAI non solo la gestione delle nostre query, ma anche una quota crescente della nostra capacità immaginativa collettiva. E lo facciamo, per lo più, senza rendercene conto — un aggiornamento alla volta, un prodotto alla volta, un comunicato stampa entusiastico alla volta. La domanda che resta aperta è semplice, e scomoda: siamo davvero pronti a lasciare che una singola azienda tenga le chiavi di ciò che riusciamo a visualizzare?