AWS svela il nuovo chip di intelligenza artificiale Trainium e il Graviton 4, estende la partnership con Nvidia

AWS presenta il nuovo chip di intelligenza artificiale Trainium e il Graviton 4, espande la collaborazione con Nvidia

aws-graviton4-and-aws-trainium2-prototype

Il chip Graviton 4, a sinistra, è un chip microprocessore a uso generale utilizzato da SAP e altri per carichi di lavoro pesanti, mentre Trainium 2 è un chip acceleratore specializzato per programmi di reti neurali molto grandi come l’AI generativa.

Alla sua conferenza annuale per sviluppatori AWS re:Invent a Las Vegas, Amazon ha annunciato martedì una nuova versione di Trainium 2, il suo chip dedicato all’addestramento di reti neurali. Trainium 2 è ottimizzato specificamente per l’addestramento di modelli di linguaggio di grandi dimensioni (LLM) e modelli fondamentali, come i programmi di AI generativa come GPT-4 di OpenAI.

L’azienda ha anche presentato una nuova versione del suo microprocessore personalizzato, Graviton 4, e ha annunciato di estendere la partnership con Nvidia per eseguire i chip più avanzati di Nvidia nel suo servizio di cloud computing.

Inoltre: Il futuro del cloud computing, dall’ibrido al bordo all’intelligenza artificiale

Il Trainium 2 è progettato per gestire reti neurali con migliaia di miliardi di parametri, o pesi neurali, che sono le funzioni dell’algoritmo del programma che gli conferiscono scala e potenza, in generale. L’aumento dei parametri sempre più grandi è un focus dell’intera industria dell’AI.

Il conteggio dei mille miliardi di parametri è diventato una sorta di ossessione nell’industria a causa del fatto che si ritiene che il cervello umano contenga 100 trilioni di connessioni neuronali, facendo sembrare un programma di rete neurale con mille miliardi di parametri simile al cervello umano, che lo sia effettivamente o meno.

I chip sono “progettati per offrire prestazioni di addestramento fino a quattro volte più veloci e una capacità di memoria fino a tre volte superiore” rispetto al predecessore, ha detto Amazon.

Amazon rende i chip disponibili nelle istanze del suo servizio di cloud computing EC2 denominate “Trn2” instances. L’istanza offre 16 chip Trainium 2 che lavorano in concerto, che possono essere estesi fino a 100.000 istanze, ha detto Amazon. Queste istanze più grandi sono interconnesse utilizzando il sistema di rete aziendale, chiamato Elastic Fabric Adapter, che può fornire una potenza di calcolo totale di 65 exaFLOP. (Un exaFLOP equivale a un miliardo di miliardi di operazioni in virgola mobile al secondo.)

Inoltre: AWS presenta zone cloud locali per uso esclusivo dei clienti

A quella scala di calcolo, ha detto Amazon, “i clienti possono addestrare un LLM con 300 miliardi di parametri in settimane anziché mesi”.

Oltre a servire i clienti, Amazon ha incentivi aggiuntivi per continuare a spingere l’envelope sul silicio dell’IA. L’azienda ha investito 4 miliardi di dollari nella startup generativa di AI Anthropic, un gruppo nato da OpenAI. Questo investimento mette l’azienda in una posizione di competere con l’accordo esclusivo di Microsoft con OpenAI.

Il chip Graviton 4, che è basato sulla proprietà intellettuale dei microprocessori di ARM Holdings, concorre con i processori di Intel e Advanced Micro Devices basati sul vecchio standard del chip x86. Il Graviton 4 ha “una migliore prestazione di calcolo del 30%”, ha detto Amazon.

Inoltre: Perché Nvidia sta insegnando ai robot a girare le penne e come l’IA generativa sta aiutando

A differenza dei chip Trainium per l’IA, i processori Graviton sono destinati a eseguire carichi di lavoro più convenzionali. Amazon AWS ha dichiarato che i clienti, tra cui Datadog, DirecTV, Discovery, Formula 1, Nielsen, Pinterest, SAP, Snowflake, Sprinklr, Stripe e Zendesk, utilizzano i chip Graviton “per eseguire una vasta gamma di carichi di lavoro, come database, analisi, server web, elaborazione batch, fornitura di annunci, server per applicazioni e microservizi.”

SAP ha dichiarato nelle sue osservazioni preparate di essere riuscita a raggiungere “una migliore performance del prezzo del 35% per i carichi di lavoro analitici” eseguendo il suo database in-memory HANA sui chip Graviton, e di “non vedere l’ora di valutare Graviton4 e i benefici che può apportare ai nostri clienti comuni”.

I nuovi chip seguono di due anni l’introduzione nel 2021 di Graviton 3 e il primo Trainium.

Le notizie di Amazon seguono l’introduzione da parte di Microsoft la scorsa settimana dei suoi primi chip per l’IA. Google di Alphabet, l’altro gigante del cloud insieme ad Amazon e Microsoft, ha preceduto entrambi nel 2016 con il primo chip per il cloud per l’IA, l’TPU o Tensor Processing Unit, del quale ha offerto più generazioni da allora.

Inoltre: Amazon trasforma Fire TV Cube in un thin client per le aziende

Oltre ai due nuovi chip, Amazon ha annunciato di aver esteso la sua partnership strategica con il gigante dei chip per l’IA Nvidia. AWS sarà il primo servizio cloud a eseguire il prossimo prodotto multi-chip GH200 Grace Hopper di Nvidia, che combina la CPU ARM-based Grace e il chip GPU Hopper H100.

Il chip GH200, che dovrebbe iniziare a essere spedito l’anno prossimo, è la versione successiva del chip combo Grace Hopper annunciato all’inizio di quest’anno, che già viene spedito nella sua versione iniziale in computer di Dell e altri.

I chip GH200 saranno ospitati su AWS tramite i computer AI appositamente progettati da Nvidia, il DGX, grazie ai quali le due società affermano che sarà possibile velocizzare l’addestramento delle reti neurali con più di un trilione di parametri.

Nvidia ha affermato che farà di AWS il suo “fornitore cloud primario per la ricerca e lo sviluppo delle sue applicazioni di apprendimento automatico”.