Microsoft svela il primo chip AI, Maia 100, e la CPU Cobalt

Microsoft presenta il primo chip AI, Maia 100, e la CPU Cobalt

Azure Cobalt

Al Microsoft Ignite, il CEO di Microsoft, Satya Nadella, ha annunciato il processore Azure Cobalt.

Alla sua conferenza annuale per sviluppatori, Ignite, Microsoft ha presentato mercoledì il processore cloud personalizzato tanto atteso per il suo servizio cloud Azure, chiamato Azure Maia 100, ottimizzato per compiti come l’IA generativa.

Maia 100 è il primo di una serie di acceleratori Maia per l’IA, ha affermato l’azienda. Con 105 miliardi di transistor, è “uno dei chip più grandi sulla tecnologia del processo a 5 nanometri”, ha detto Microsoft, facendo riferimento alle dimensioni delle caratteristiche più piccole del chip, cinque miliardesimi di metro.

Con 105 miliardi di transistor, Azure Maia 100 è “uno dei chip più grandi sulla tecnologia del processo a 5 nanometri”, afferma Microsoft, facendo riferimento alle dimensioni delle caratteristiche più piccole del chip, cinque miliardesimi di metro.

Inoltre: Le ultime offerte di AI di Microsoft per sviluppatori svelate a Ignite 2023

Inoltre, l’azienda ha presentato il suo primo microprocessore creato internamente per il cloud computing, Azure Cobalt 100. Come Maia, il processore è il primo di una serie pianificata di microprocessori. Si basa sull’architettura di set di istruzioni ARM di ARM Holdings che è concessa in licenza per l’uso da parte di numerose aziende, tra cui Nvidia e Apple.

Microsoft ha dichiarato che Cobalt 100 è un processore a 64 bit che ha 128 core di elaborazione su silicio e che raggiunge una riduzione del 40% del consumo energetico rispetto ad altri chip basati su ARM utilizzati da Azure. Secondo l’azienda, il componente Cobalt sta già alimentando programmi tra cui Microsoft Teams e Azure SQL.

La CPU Microsoft Azure Cobalt.

I due chip, Maia 100 e Cobalt 100, sono alimentati da una rete di 200 gigabit al secondo, ha affermato Microsoft, e possono fornire un throughput dati di 12,5 gigabyte al secondo.

Microsoft è l’ultimo dei tre principali fornitori di cloud a offrire silicio personalizzato per cloud e AI. Google ha inaugurato la corsa al silicio personalizzato con il suo Tensor Processing Unit, o TPU, nel 2016. Amazon ha seguito l’esempio con una serie di chip tra cui Graviton, Trainium e Inferentia.

Rumori sugli sforzi di Microsoft circolano da anni, alimentati da occasionali rivelazioni come la fuga di notizie dello scorso anno di un documento di pianificazione dell’azienda.

Inoltre: Azure AI Studio sale sul palco a Ignite 2023: Sfrutta il potenziale di questo toolkit di AI

Microsoft ha sottolineato che continua a collaborare sia con Nvidia che con AMD per i chip di Azure. Ha in programma di aggiungere il più recente chip GPU di Nvidia, il “Hopper” H200, il prossimo anno, così come la GPU concorrente di AMD, la MI300.

I chip di Microsoft contribuiranno a programmi come GitHub Copilot, ma saranno anche utilizzati per eseguire IA generativa dalla startup di AI OpenAI, in cui Microsoft ha investito 11 miliardi di dollari per ottenere diritti esclusivi su programmi come ChatGPT e GPT-4.

Un supporto personalizzato per il Maia 100 AI Accelerator e il suo “compagno di squadra” all’interno di una camera termica presso un laboratorio Microsoft a Redmond, Washington.

Alla conferenza per sviluppatori di OpenAI la scorsa settimana a San Francisco, il CEO di Microsoft Satya Nadella si è impegnato a costruire “la migliore potenza di calcolo” per OpenAI “man mano che avanzate aggressivamente sulla vostra roadmap”.

Inoltre: OpenAI presenta i custom GPTs, Store e Assistant API al Dev Day

Sia Microsoft che OpenAI stanno cercando contemporaneamente di attrarre le aziende all’uso dell’intelligenza artificiale generativa. Microsoft ha registrato una forte crescita nel settore dell’intelligenza artificiale generativa, ha dichiarato Nadella a Wall Street il mese scorso. I clienti paganti della software GitHub Copilot sono aumentati del 40% nel terzo trimestre rispetto al trimestre precedente.

“Abbiamo oltre 1 milione di utenti paganti di Copilot in più di 37.000 organizzazioni che sottoscrivono Copilot per scopi aziendali,” ha detto Nadella, “con un’ampia adesione al di fuori degli Stati Uniti.”

Anche durante l’evento Ignite, Microsoft ha annunciato l’estensione di Copilot ad Azure con una versione di anteprima pubblica di Copilot per Azure, uno strumento che, secondo l’azienda, fornirà agli amministratori di sistema un “compagno di intelligenza artificiale” in grado di “generare istantaneamente analisi approfondite.”

Inoltre: CEO di OpenAI: Siamo contenti se Microsoft fa una vendita, e loro se facciamo una vendita

Oltre alle innovazioni sui chip, Microsoft ha annunciato la disponibilità generale dei programmi di database di Oracle che girano sull’hardware Oracle nella regione Azure US East. Microsoft è l’unico operatore cloud che offre il database Oracle su infrastrutture realizzate da Oracle stessa.

Altre novità dei partner includono la disponibilità generale del servizio di edge computing di Microsoft, Arc, per la suite di virtualizzazione VMware vSphere.