NVIDIA ingloba Run:ai in mossa epocale nel software GPU!

NVIDIA ingloba Run:ai in mossa epocale nel software GPU!

> NVIDIA annuncia l'acquisizione di Run:ai per ottimizzare la gestione delle risorse di calcolo AI tramite Kubernetes

In un'epoca in cui l'utilizzo dell'intelligenza artificiale cresce a ritmi sostenuti, NVIDIA acquisisce Run.ai, fornitore di software per la gestione e l'orchestrazione del carico di lavoro basato su Kubernetes, con l'obiettivo di ottimizzare l'uso delle risorse di calcolo AI dei clienti. L'operazione mira a far fronte alla crescente complessità dei deployment AI, distribuiti tra cloud, edge e infrastrutture di data center on-premises, necessitando di una pianificazione sofisticata per ottimizzare le prestazioni a livello di sistema e sull'infrastruttura sottostante.

Run.ai si posiziona come un abilitatore per le aziende clienti nella gestione e ottimizzazione dell'infrastruttura di calcolo, sia in sede, sia nel cloud o in ambienti ibridi. Grazie alla sua piattaforma aperta basata su Kubernetes, che rappresenta lo strato di orchestrazione per la moderna AI e l'infrastruttura cloud, Run.ai supporta tutte le varianti di Kubernetes più diffusi e si integra con strumenti e framework AI di terze parti.

La piattaforma di Run.ai è utilizzata da alcune delle più grandi imprese mondiali in vari settori industriali, per gestire cluster di GPU in data center. “Run.ai è stato un collaboratore stretto di NVIDIA dal 2020 e condividiamo la passione per aiutare i nostri clienti a massimizzare l'efficienza della loro infrastruttura”, ha dichiarato Omri Geller, cofondatore e CEO di Run.ai. L'unione con NVIDIA rappresenta quindi un passo avanti naturale nel percorso congiunto delle due aziende.

La piattaforma Run.ai offre agli sviluppatori AI e ai loro team una serie di strumenti per la gestione dell'infrastruttura di calcolo condivisa, facilitando l'accesso a carichi di lavoro AI complessi. Tra le funzionalità chiave, vi è la possibilità di raggruppare le GPU e condividere la potenza di calcolo, dal frazionamento delle GPU a più GPU o nodi multipli di GPU su diversi cluster, per compiti separati. Questo permette un'utilizzo più efficiente delle risorse di cluster GPU, ottimizzando gli investimenti computazionali dei clienti.

NVIDIA ha annunciato che continuerà a offrire i prodotti Run.ai secondo lo stesso modello di business per il futuro prossimo, con ulteriori investimenti previsti nel roadmap di prodotto Run.ai, inclusa l'abilitazione su NVIDIA DGX Cloud. I clienti di NVIDIA HGX, DGX e DGX Cloud guadagneranno l'accesso alle capacità di Run.ai per i loro carichi di lavoro AI, in particolare per le implementazioni di modelli linguistici di grandi dimensioni, beneficiando di una migliore utilizzazione delle GPU e di una gestione più efficiente dell'infrastruttura GPU.

Insieme a Run.ai, NVIDIA punta a fornire ai clienti un'unica soluzione per accedere alle soluzioni GPU ovunque, promettendo benefici in termini di migliore utilizzo delle GPU, gestione più efficace dell'infrastruttura GPU e maggiore flessibilità data dall'architettura aperta. Questa mossa strategica pone le basi per un ecosistema accelerato di calcolo, dando ai clienti scelta e flessibilità attraverso il supporto di una vasta gamma di soluzioni di terze parti.

Logo AiBay