Perché è più probabile che il progresso dell’AI rallenti piuttosto che domina il mondo

Perché è più probabile che il progresso dell'intelligenza artificiale si rallenti anziché conquistare il mondo

C’è imminente una carenza globale di capacità informatica che non può essere affrontata in modo sostenibile nel modo in cui stiamo facendo oggi le cose. 

In parole semplici, tra l’aumento esponenziale dei modelli di intelligenza artificiale (AI) e una trasformazione digitale globale in corso, i data center stanno esaurendo lo spazio. I tassi di vacanza stanno raggiungendo minimi record e i prezzi stanno aumentando in risposta alla domanda, il che è motivo di preoccupazione tra i leader tecnologici.  

Se questa tendenza continua, arriveremo a un punto in cui non potremo più realizzare tutte le cose che la tecnologia teoricamente ci consente di fare, perché la nostra capacità di elaborare i dati sarà limitata. 

La preoccupazione più grande è che il potenziale trasformativo dell’IA, che stiamo solo cominciando a sfruttare, sarà ostacolato da vincoli puramente fisici. Ciò impedirà nuove scoperte e lo sviluppo di modelli di apprendimento automatico (ML) più avanzati, il che è una brutta notizia per tutti, tranne che per gli allarmisti sull’apocalisse dell’IA. 

C’è un modo per evitare la crisi della capacità di calcolo? Dal momento che ridurre massivamente le nostre esigenze di calcolo non è davvero un’opzione, l’unico alternativa è aumentare significativamente la capacità, il che si riduce a due percorsi disponibili: costruire più data center e sviluppare una migliore infrastruttura digitale.

Ma è più facile a dirsi che a farsi: ecco perché. 

Perché più data center non è la risposta

Fino ad oggi, la crescente domanda di capacità informatica è stata in parte soddisfatta costruendo più data center, con stime conservative che pongono la crescita degli immobili occupati dai data center a circa il 40% all’anno. È un dato che ci si può aspettare di rimanere abbastanza stabile, poiché i problemi di fornitura, le sfide energetiche e i ritardi nella costruzione limitano gravemente l’espansione della capacità di scalabilità. 

In altre parole, oggi la domanda non può essere semplicemente soddisfatta aumentando la costruzione dei data center. 

E neanche dovremmo aspirare a questo. Ognuno di questi magazzini delle dimensioni di un campo da calcio consuma enormi quantità di energia e acqua, mettendo una grave pressione sull’ambiente, sia a livello locale che globale. Un singolo data center può consumare tanta elettricità e acqua quanto 50.000 abitazioni e l’impronta di carbonio del cloud già supera quella del settore dell’aviazione.

Bisogna dare credito dove merita: i data center hanno compiuto grandi progressi nel minimizzare il loro impatto ambientale. Questo è in gran parte grazie a una corsa accanita verso la sostenibilità, che ha promosso l’innovazione, in particolare per quanto riguarda il raffreddamento e l’efficienza energetica. Oggi troverai data center in miniere sotterranee, nel mare e che sfruttano altre opportunità di raffreddamento naturale come flussi d’acqua dei fiordi, tutto per ridurre il consumo di energia e acqua. 

Il problema è che ciò non è scalabile a livello globale, né far bollire i nostri mari è un percorso praticabile per il futuro. Costruire più data center, per quanto efficienti, continuerà a provocare danni agli ecosistemi locali e ostacolerà gli sforzi di sostenibilità nazionali e internazionali. E tutto ciò senza riuscire ancora a soddisfare la domanda di risorse di calcolo. 

Tuttavia, due chip sono meglio di uno, a meno che…

Pensa dentro la scatola

… a meno che quel singolo chip non operi al doppio della velocità. Per evitare la crisi di capacità, tutte le speranze si basano sul miglioramento dell’infrastruttura digitale, vale a dire chip, switch, cavi e altri componenti che possono migliorare la velocità dei dati e la larghezza di banda consumando meno energia. 

Ripeto – l’evoluzione dell’IA dipende dal trovare modi per trasferire più dati senza consumare più energia.

In pratica, ciò significa due cose. Primo, lo sviluppo di chip più potenti e incentrati sull’IA. Secondo, il miglioramento delle velocità di trasferimento dei dati.

1. Progettazione di chip su misura per l’IA

L’infrastruttura digitale esistente non è particolarmente adatta per lo sviluppo efficiente di modelli ML. Le unità di elaborazione centrali (CPU) ad uso generico, che continuano a essere i principali componenti di calcolo nei data center, faticano con compiti specifici dell’IA a causa della mancanza di specializzazione ed efficienza computazionale.

Per quanto riguarda l’IA, le unità di elaborazione grafiche (GPU) sono molto migliori grazie a una maggiore potenza di elaborazione, maggiore efficienza energetica e parallelismo. Ecco perché tutti ne sono alla ricerca, il che ha portato a una carenza di chip.

Tuttavia, le GPU inevitabilmente incontrano lo stesso ostacolo. Non sono intrinsecamente ottimizzate per i compiti dell’IA, causando spreco di energia e prestazioni subottimali nell’affrontare le crescenti esigenze intricate e data-intensive delle moderne applicazioni di intelligenza artificiale.

Ecco perché aziende come IBM stanno progettando chip su misura per le esigenze di calcolo dell’IA, che promettono di ottenere le massime prestazioni riducendo al minimo il consumo di energia e lo spazio.

2. Migliorare la capacità di trasferimento dei dati

Nessun modello di intelligenza artificiale moderna opera su un singolo chip. Invece, per sfruttare al massimo le risorse disponibili, si assemblano più chip in cluster. Questi cluster spesso fanno parte di reti più grandi, ognuna progettata per compiti specifici.

Di conseguenza, l’interconnessione, o il sistema che facilita la comunicazione tra chip, cluster e reti, diventa un componente critico. A meno che non riesca a stare al passo con la velocità del resto del sistema, rischia di essere un collo di bottiglia che ostacola le prestazioni.

Le sfide per i dispositivi di trasferimento dati sono simili a quelle dei chip: devono operare a velocità elevate, consumare energia minima e occupare il minor spazio fisico possibile. Con gli interconnettori elettrici tradizionali che raggiungono velocemente i loro limiti in termini di larghezza di banda e efficienza energetica, l’attenzione si concentra sulla computazione ottica – e in particolare sulla fotonica al silicio.

A differenza dei sistemi elettrici, i sistemi ottici utilizzano la luce per trasmettere informazioni, offrendo vantaggi chiave nelle aree che contano – i segnali fotonici possono viaggiare alla velocità della luce e trasportare una maggiore densità di dati. Inoltre, i sistemi ottici consumano meno potenza e i componenti fotonici possono essere molto più piccoli rispetto ai loro omologhi elettrici, consentendo design di chip più compatti.

Le parole operative qui sono “possono essere”.

I dolori della crescita della tecnologia all’avanguardia

La computazione ottica, sebbene estremamente veloce ed efficiente dal punto di vista energetico, attualmente si confronta con sfide nella miniaturizzazione, compatibilità e costo.

Gli switch ottici e altri componenti possono essere più ingombranti e complessi rispetto ai loro omologhi elettronici, creando difficoltà nel raggiungere lo stesso livello di miniaturizzazione. Fino ad ora, non abbiamo ancora trovato materiali che possano fungere da mezzo ottico efficace e che siano scalabili per applicazioni di calcolo ad alta densità.

Anche l’adozione sarebbe una battaglia in salita. I data center sono generalmente ottimizzati per l’elaborazione elettronica, non fotonica, e integrare componenti ottici con architetture elettroniche esistenti rappresenta una sfida importante.

Inoltre, come qualsiasi tecnologia all’avanguardia, la computazione ottica deve ancora dimostrare la sua affidabilità a lungo termine, in particolare nelle condizioni di elevato carico e stress tipiche degli ambienti dei data center.

E per completare il quadro – i materiali specializzati richiesti nei componenti ottici sono costosi, rendendo potenzialmente proibitiva l’adozione diffusa, specialmente per i data center più piccoli o quelli con vincoli di bilancio stretti.

Quindi, stiamo procedendo abbastanza velocemente per evitare il collasso?

Probabilmente no. Sicuramente non per smettere di costruire data center nel breve termine.

Se può consolare, sappiamo che scienziati e ingegneri sono molto consapevoli del problema e stanno lavorando duramente per trovare soluzioni che non distruggano il pianeta, spingendo costantemente i limiti e compiendo progressi significativi nell’ottimizzazione dei data center, nella progettazione dei chip e in tutti gli aspetti della computazione ottica.

La mia squadra da sola ha battuto tre record mondiali nel tasso di simboli per l’interconnessione dei data center utilizzando l’approccio di modulazione di intensità e rilevamento diretto.

Ma ci sono sfide serie, ed è essenziale affrontarle frontalmente affinché le tecnologie moderne possano realizzare il loro pieno potenziale.

Il professor Oskars Ozoliņš ha conseguito il suo dottorato in ingegneria (Dr.sc.ing.) in comunicazioni ottiche presso l’Università Tecnica di Riga (Lettonia) nel 2013 e ha ottenuto una laurea abilitante in fisica con una specializzazione in comunicazione ottica presso la KTH Royal Institute of Technology nel 2021. È autore di circa 270 pubblicazioni internazionali su riviste scientifiche, contributi a conferenze, interventi come relatore ospite, tutorial, keynote, letture, brevetti e capitoli di libri. Puoi seguirlo su LinkedIn qui.