Il Mito dell’AI ‘Open Source

Il Mito dell'AI 'Open Source' - The myth of 'Open Source' AI

ChatGPT ha reso possibile per chiunque giocare con l’intelligenza artificiale potente, ma il funzionamento interno del famoso chatbot rimane un segreto ben custodito.

Negli ultimi mesi, però, gli sforzi per rendere l’IA più “aperta” sembrano aver preso slancio. A maggio, qualcuno ha fatto trapelare un modello di Meta chiamato Llama, che ha dato agli estranei accesso al suo codice sottostante così come ai “pesi” che determinano il suo comportamento. Poi, a luglio, Meta ha scelto di rendere disponibile un modello ancora più potente chiamato Llama 2, che può essere scaricato, modificato e riutilizzato da chiunque. I modelli di Meta sono diventati da allora una base estremamente popolare per molte aziende, ricercatori e appassionati che costruiscono strumenti e applicazioni con capacità simili a ChatGPT.

“Abbiamo un ampio gruppo di sostenitori in tutto il mondo che credono nel nostro approccio aperto all’IA odierna… ricercatori impegnati a fare ricerca con il modello e persone nel settore tecnologico, accademico e politico che vedono i vantaggi di Llama e di una piattaforma aperta come noi”, ha detto Meta quando ha annunciato Llama 2. Stamattina, Meta ha rilasciato un altro modello, Llama 2 Code, che è stato ottimizzato per il coding.

Potrebbe sembrare che l’approccio open source, che ha democratizzato l’accesso al software, garantito la trasparenza e migliorato la sicurezza per decenni, sia ora pronto a avere un impatto simile sull’IA.

Ma non così in fretta, dicono un gruppo dietro un documento di ricerca che esamina la realtà di Llama 2 e di altri modelli di IA che vengono descritti, in un modo o nell’altro, come “aperti”. I ricercatori, provenienti dall’Università Carnegie Mellon, dall’Istituto AI Now e dalla Fondazione Signal, affermano che i modelli che vengono contrassegnati come “aperti” possono avere delle limitazioni.

Llama 2 è gratuito per il download, la modifica e l’implementazione, ma non è coperto da una licenza open source convenzionale. La licenza di Meta proibisce l’uso di Llama 2 per addestrare altri modelli di linguaggio e richiede una licenza speciale se un sviluppatore lo implementa in un’app o in un servizio con più di 700 milioni di utenti giornalieri.

Questo livello di controllo significa che Llama 2 potrebbe fornire significativi vantaggi tecnici e strategici a Meta, ad esempio permettendo all’azienda di beneficiare delle modifiche utili apportate dagli sviluppatori esterni quando utilizza il modello nelle sue stesse app.

I modelli rilasciati con licenze open source normali, come GPT Neo della no-profit EleutherAI, sono più completamente aperti, dicono i ricercatori. Ma è difficile per tali progetti ottenere una posizione di parità.

In primo luogo, i dati necessari per addestrare modelli avanzati sono spesso tenuti segreti. In secondo luogo, i framework software necessari per costruire tali modelli sono spesso controllati da grandi aziende. I due più popolari, TensorFlow e Pytorch, sono mantenuti rispettivamente da Google e Meta. In terzo luogo, la potenza di calcolo necessaria per addestrare un grande modello è al di là delle possibilità di un normale sviluppatore o azienda, richiedendo tipicamente decine o centinaia di milioni di dollari per una singola esecuzione di addestramento. E infine, il lavoro umano necessario per affinare e migliorare questi modelli è anche una risorsa che è principalmente disponibile solo alle grandi aziende con tasche profonde.

La direzione presa indica che una delle tecnologie più importanti degli ultimi decenni potrebbe finire per arricchire ed emancipare solo poche aziende, tra cui OpenAI, Microsoft, Meta e Google. Se l’IA è davvero una tecnologia che cambia il mondo, i maggiori benefici potrebbero essere avvertiti se fosse resa più ampiamente disponibile e accessibile.

“Ciò a cui punta la nostra analisi è che l’apertura non serve a ‘democratizzare’ l’IA”, mi dice Meredith Whittaker, presidente di Signal e uno dei ricercatori dietro il documento. “Anzi, mostriamo che le aziende e le istituzioni possono e hanno sfruttato tecnologie ‘aperte’ per consolidare ed espandere il potere centralizzato”.

Whittaker aggiunge che il mito dell’apertura dovrebbe essere un fattore nelle necessarie regolamentazioni sull’IA. “Abbiamo davvero bisogno di alternative significative alle tecnologie definite e dominate da grandi aziende monopolistiche, specialmente quando i sistemi AI vengono integrati in settori molto sensibili con un impatto pubblico particolare: nella sanità, nelle finanze, nell’istruzione e nel luogo di lavoro”, dice. “Creare le condizioni per rendere possibili tali alternative è un progetto che può coesistere con, e persino essere supportato da, movimenti regolatori come le riforme antitrust”.

Oltre a controllare il potere delle grandi aziende, rendere l’IA più aperta potrebbe essere cruciale per sbloccare il suo miglior potenziale e evitare le sue peggiori tendenze.

Se vogliamo capire quanto sono capaci i modelli di IA più avanzati e mitigare i rischi che potrebbero derivare dalla loro implementazione e dal loro ulteriore progresso, potrebbe essere meglio renderli aperti agli scienziati di tutto il mondo.

Proprio come la sicurezza tramite l’oscurità non garantisce realmente che il codice verrà eseguito in modo sicuro, proteggere il funzionamento dei potenti modelli di intelligenza artificiale potrebbe non essere il modo più intelligente per procedere.