Red Hat abbraccia l'AI per semplificare la vita degli amministratori di sistema

Red Hat abbraccia l'AI per semplificare la vita degli amministratori di sistema

> il lavoro sull'IA del gigante open-source mira a integrare l'intera famiglia di software Red Hat in uno stack intelligente e facile da gestire: ecco cosa fa ciascuno e come si integrano tra loro

Sarà un sollievo quando ogni comunicato stampa tecnologico o commerciale non inizierà più con "Ora con AI!". Spesso è solo una trovata pubblicitaria. Tuttavia, c'è Red Hat, che sta integrando l'intelligenza artificiale in tutta la sua gamma di prodotti. Questo include Red Hat Enterprise Linux AI (RHEL AI), Red Hat OpenShift AI e Red Hat Ansible Automation. Ecco una panoramica su ciascuno di questi prodotti e come si integrano tra loro.

Red Hat ha lavorato con l'AI ben prima del recente affollamento di annunci. La sua prima esperienza seria con l'AI è stata Red Hat Lightspeed, un servizio di AI generativa basato su un modello fondazionale specifico per l'automazione. Lightspeed utilizza il natural language processing (NLP) per trasformare prompt in codice e ha debuttato nel programma Ansible DevOps, semplificando i complessi compiti di amministrazione dei sistemi. Questo strumento è stato particolarmente utile nella creazione di Ansible Playbooks.

Inoltre, IBM ha reso open-source i suoi modelli di AI Granite, e queste soluzioni si adattano bene al settore. Guardando al futuro, RHEL AI è la piattaforma AI fondazionale di Red Hat. Attualmente in anteprima per gli sviluppatori, RHEL AI è progettata per semplificare lo sviluppo, il test e il deployment di modelli AI generativi. Questa nuova piattaforma combina la famiglia di modelli di linguaggio ampio (LLM) Granite di IBM Research con gli strumenti di allineamento basati sulla metodologia LAB di InstructLab e adotta un approccio collaborativo allo sviluppo dei modelli tramite il progetto InstructLab.

IBM Research ha sviluppato la metodologia LAB, che utilizza la generazione di dati sintetici e una sintonizzazione multi-fase per allineare i modelli AI/ML senza un oneroso sforzo manuale. Questo approccio, affinato tramite la comunità di InstructLab, consente agli sviluppatori di contribuire ai LLM come farebbero con qualsiasi progetto open-source.

Con il lancio di InstructLab, IBM ha rilasciato alcuni modelli di lingua e codice Granite sotto una licenza Apache, offrendo dataset trasparenti per l'addestramento e i contributi della comunità. Il modello di linguaggio inglese Granite 7B è ora integrato in InstructLab, dove gli utenti possono migliorare collaborativamente le sue capacità.

RHEL AI è realizzato per facilitare l'adozione aziendale su vasta scala offrendo un'immagine RHEL avviabile e completamente ottimizzata per i deployment su server in ambienti cloud ibridi. Queste istanze di runtime ottimizzate funzionano con i modelli Granite e i pacchetti di strumenti di InstructLab. Includono librerie runtime Pytorch ottimizzate e acceleratori GPU per AMD Instinct MI300X, Intel e NVIDIA, e i framework NeMo.

RHEL AI è anche integrato in OpenShift AI, la piattaforma di machine learning operations (MLOps) di Red Hat, permettendo l'implementazione su larga scala dei modelli in cluster distribuiti.

Un'altra caratteristica di RHEL AI è l'utilizzo di Lightspeed per aiutare a distribuire, gestire e mantenere le istanze RHEL. Ad esempio, durante il Red Hat Summit, è stato dimostrato come RHEL AI può controllare i Common Vulnerability and Exploit (CVE) patch di sicurezza, consentendo poi al sistema di implementare automaticamente il patch.

Prossimo è OpenShift AI, che include RHEL AI e permette alle aziende di scalare i flussi di lavoro e gestire i modelli tramite Kubernetes-powered MLOps. Gli utenti dello studio enterprise IBM watsonx.ai trarranno beneficio da questa integrazione grazie a una migliore governance dei modelli e a un pricing ottimizzato.

Come RHEL AI, questa nuova versione di OpenShift facilitata dall'AI include Lightspeed, rendendo OpenShift più facile da usare. Ad esempio, Lightspeed raccomanderà come distribuire nuove applicazioni, quando usare l’autoscaling e le dimensioni appropriate per le istanze cloud. Monitorerà anche la tua applicazione, e se dopo un po' di tempo le esigenze di capacità saranno inferiori a quelle previste, Lightspeed ridurrà automaticamente le risorse dell'app.

In sintesi, Ashesh Badani, senior VP e chief product officer di Red Hat, ha affermato: "Red Hat Lightspeed mette l'AI pronta per la produzione nelle mani degli utenti che possono offrire più rapidamente l'innovazione: l'organizzazione IT".

Infine, in Ansible, Red Hat ha aggiunto "policy as code" al suo portfolio di soluzioni. Perché? Sathish Balakrishnan, VP e general manager di Ansible, ha spiegato che man mano che l'AI amplia le capacità dei singoli sistemi al di là di quanto possiamo gestire, la sfida di mantenere l'infrastruttura IT è diventata sempre più grande.

Secondo Balakrishnan, "L'AI è lo stadio finale del percorso di adozione dell'automazione. Nel contesto delle operazioni IT aziendali, l'AI significa macchine che automatizzano i processi, connettendo infrastrutture e strumenti per renderli più efficienti e prendendo decisioni per migliorare la resilienza e ridurre i costi".

Utilizzando l'AI per automatizzare le policy as code, Red Hat prevede che il nuovo Ansible applicherà in modo efficiente le politiche internamente ed esternamente imposte all'inizio di un nuovo progetto IT e poi ne gestirà le operazioni su larga scala.

Se pensate che ci sia un tema comune qui che unisce tutti i programmi, avete ragione. Red Hat sta utilizzando l'AI per rendere la vita più facile agli amministratori di sistemi. Sì, sarà possibile creare programmi di AI su RHEL e OpenShift, ma per il futuro prossimo, l'AI di Red Hat riguarda soprattutto l'integrazione dell'intera famiglia di software Red Hat in uno stack intelligente e facile da gestire per tutti i suoi clienti.

Logo AiBay