Un manutentore open-source ha rifiutato un milione di dollari da OpenAI

Un manutentore open-source ha rifiutato un milione di dollari da OpenAI

Scott Shambaugh, manutentore di matplotlib, ha rifiutato un'offerta di OpenAI da un milione di dollari. La questione solleva il dibattito sul ruolo dell'AI nello sviluppo open-source.

Il rifiuto solleva questioni etiche sull’uso dell’intelligenza artificiale nella scrittura di software libero e aperto.

C’è qualcosa di paradossale nell’immagine di OpenAI che bussa alla porta della comunità open-source con in mano un assegno da un milione di dollari, e qualcuno che non apre. Eppure è esattamente quello che sta succedendo. Attraverso il Codex Open Source Fund, OpenAI offre ai manutentori di progetti open-source crediti API, sei mesi di ChatGPT Pro con Codex per attività quotidiane di codifica, triage e revisione, e — sotto esame caso per caso — l’accesso a Codex Security. Un’offerta che, sulla carta, suona come un gesto di apertura verso una comunità che da decenni costruisce l’infrastruttura digitale del mondo. Nella pratica, ha già trovato la sua prima porta chiusa.

Il regalo avvelenato

Scott Shambaugh, manutentore del progetto matplotlib, ha chiuso una pull request perché, come documenta il caso Scott Shambaugh documentato in dettaglio, aveva deciso che gli agenti AI semplicemente non sono contributori benvenuti. Non è una questione di qualità del codice. È una questione di principio: chi — o cosa — ha il diritto di scrivere software libero? La risposta di Shambaugh è netta. Quella di OpenAI è altrettanto netta, solo in direzione opposta.

Il fondo da un milione di dollari esiste già da oltre un anno, e ha supportato progetti che usano Codex per automatizzare flussi di lavoro sulle pull request di GitHub. OpenAI lo presenta come un atto di generosità verso chi regge il peso invisibile dell’open-source: persone che lavorano spesso gratuitamente, nei ritagli di tempo, su librerie che miliardi di utenti usano senza saperlo. Ma la domanda che vale la pena fare è: perché OpenAI vuole così tanto che i manutentori open-source usino i suoi strumenti? E perché proprio ora?

La corsa agli armamenti AI

La risposta, almeno in parte, arriva dal contesto competitivo. Stando a quanto riportato da TechCrunch sull’aggiornamento di Codex, tra OpenAI e Anthropic è in corso una guerra a bassa intensità su chi riesce a rilasciare gli strumenti di codifica AI più convenienti e potenti. E finora, stando alla stessa fonte, Anthropic sembra essere in vantaggio: Claude Code è stato definito lo strumento preferito da molte aziende. OpenAI non è abituata a inseguire. L’offensiva verso i manutentori open-source va letta anche in questa chiave: non è solo filantropia, è acquisizione di territorio strategico.

Perché i manutentori open-source non sono un pubblico qualsiasi. Sono i guardiani del codice su cui si regge internet. Convincerli ad adottare Codex significa infilare un piede in una porta che, una volta aperta, è difficile da richiudere: le abitudini degli sviluppatori sono viscose, i flussi di lavoro si cristallizzano, le dipendenze dagli strumenti diventano strutturali. Non è un caso che anche GitHub — di proprietà di Microsoft, che ha investito miliardi in OpenAI — stia giocando la sua partita parallela: attraverso l’offerta di GitHub Education, la piattaforma garantisce accesso gratuito a Copilot Pro per insegnanti verificati e manutentori open-source. Il perimetro si stringe da più lati contemporaneamente.

C’è poi una questione che nessuno dei comunicati stampa affronta direttamente: cosa succede ai dati. I manutentori open-source che usano Codex Security — lo strumento per l’analisi delle vulnerabilità, distribuito caso per caso dopo revisione del team OpenAI — stanno potenzialmente condividendo informazioni su falle non ancora pubbliche nei loro progetti. Chi controlla quei dati? Come vengono trattati? Il GDPR pone domande precise su questo tipo di flussi, e le risposte non emergono dalle pagine promozionali del fondo. L’opacità, in questo caso, non è un dettaglio marginale.

Il codice di domani

Alla fine, la storia di Scott Shambaugh e del milione di dollari di OpenAI è anche la storia di una tensione che non si risolve con un’offerta commerciale, per quanto generosa. Chi scrive il codice aperto decide anche chi può scriverlo, e su quali termini. Se gli strumenti AI diventano indispensabili per mantenere progetti complessi — e la pressione competitiva suggerisce che questa direzione è già tracciata — chi non li adotta rischia di restare indietro. Chi li adotta, però, accetta una dipendenza da infrastrutture proprietarie che, per definizione, sono l’opposto di ciò che l’open-source ha sempre cercato di essere. Sarà l’umano, la macchina, o qualche accordo ancora da negoziare a scrivere il prossimo capitolo del codice aperto? La battaglia è appena cominciata, e le scelte di oggi — quelle di Shambaugh, quelle di OpenAI, quelle di ogni manutentore che dovrà decidere se accettare o rifiutare — disegneranno i confini di ciò che sarà possibile domani.

🍪 Impostazioni Cookie