Microsoft ha appena annunciato Maia 200, la seconda generazione del suo chip proprietario dedicato all’intelligenza artificiale.
Maia 200
Microsoft ha presentato il suo secondo chip dedicato all’AI, denominato Maia 200, ancora più ottimizzato per prestazioni e costi per sostenere l’infrastruttura che rende Microsoft indipendente dai fornitori di chip – trovate maggiori dettagli a questo indirizzo.
Oggi Microsoft annuncia Maia 200, un nuovo acceleratore di intelligenza artificiale progettato per rendere l’AI più veloce, più efficiente e più conveniente nell’uso di tutti i giorni.
- Progettare l’intelligenza artificiale per funzionare in modo efficiente e scalabile negli scenari di utilizzo reale – Maia 200 rende l’AI più efficiente e accessibile, combinando modelli più intelligenti con un’infrastruttura avanzata. Progettato per l’inferenza — il momento in cui l’AI risponde a prompt, genera contenuti o supporta decisioni in tempo reale — rende l’AI più veloce, efficiente e conveniente su scala globale, garantendo prestazioni affidabili e sostenibili negli scenari di uso quotidiano
- L’inferenza è dove l’AI entra davvero in gioco – L’inferenza è il momento in cui l’AI fa davvero la differenza. Sebbene l’addestramento dei modelli riceva molta attenzione, la maggior parte dell’uso reale dei modelli avviene successivamente. Tradizionalmente si usava hardware per effettuare i training, potente ma costoso e poco efficiente. Maia 200 è la prima piattaforma di silicon e sistema progettata da Microsoft espressamente per l’inferenza AI, con l’obiettivo di migliorare in modo significativo costo, latenza ed efficienza energetica nell’esecuzione di modelli generativi e di reasoning su larga scala. Maia 200 è anche il sistema di inferenza più efficiente abbiamo mai implementato, con prestazioni per dollaro migliori del 30% rispetto all’hardware di ultima generazione.
- Progettato per funzionare concretamente, non solo in teoria – Maia 200 rende l’AI davvero utile, rispondendo in modo immediato, affidabile e su larga scala. Costruito con tecnologie avanzate e ottimizzato per i calcoli dei modelli AI, include un sistema di memoria e networking ridisegnato per mantenere i dati vicini e ridurre ritardi. I primi sistemi Maia 200 sono in fase di deployment nella regione Azure US Central, con estensione prevista ad altre regioni, tra cui US West 3, nei prossimi mesi.
- L’AI integrata nei prodotti che usiamo ogni giorno – Maia 200 supporterà una gamma di workload AI di Microsoft, inclusi la generazione di dati sintetici, il miglioramento avanzato dei modelli e le esperienze AI in Microsoft Foundry e Microsoft 365 Copilot. Nel tempo, supporterà anche workload più ampi dei clienti come parte della piattaforma cloud Microsoft. Riducendo costi e complessità nell’esecuzione dell’AI, Maia 200 contribuisce a garantire che le capacità avanzate di AI possano scalare in modo responsabile – senza aumentare il consumo energetico o l’overhead operativo.
- Dalla sperimentazione all’uso reale – Maia 200 mostra come il settore stia passando dalla sperimentazione all’infrastruttura, dalla novità alla necessità. Maia 200 non promette solo intelligenza, ma la rende utilizzabile, accessibile e pronta per la vita di tutti i giorni.
- La caratteristica distintiva di Maia 200 è la precisione e scalabilità – Maia 200 ottimizza l’uso di formati numerici ridotti, elaborando i workload AI in modo più efficiente, con meno energia, memoria e macchine. Un singolo sistema può eseguire i modelli più grandi attuali con margine, riducendo il numero di chip necessari e il costo per risposta. Realizzato con il processo all’avanguardia a 3 nanometri di TSMC, ogni chip Maia 200 contiene oltre 140 miliardi di transistor ed è pensato per carichi di lavoro AI su larga scala
Cosa ne pensate di questa notizia? Diteci la vostra opinione nei commenti.
Articolo di Windows Blog Italia