Red Hat ha appena rilasciato nuovi aggiornamenti su Red Hat AI, il tuo portafoglio di prodotti e servizi progettati per accelerare lo sviluppo e l'implementazione di soluzioni di IA nel cloud ibrido. Red Hat AI offre una piattaforma di IA aziendale per l'addestramento di modelli e inferenza, fornendo più esperienza, flessibilità e un'esperienza semplificata per implementare sistemi ovunque nel cloud ibrido
Nella ricerca di ridurre i costi di implementazione di grandi modelli di linguaggio (LLMS) per soddisfare un numero crescente di casi d'uso, le aziende devono ancora affrontare la sfida di integrare questi sistemi con i propri dati proprietari e accedervi da qualsiasi luogo: sia in un datacenter, nella nuvola pubblica o addirittura nell'edge
Integrando sia Red Hat OpenShift AI che Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI risponde a queste preoccupazioni fornendo una piattaforma di IA aziendale che consente di adottare modelli più efficienti e ottimizzati, adeguati ai dati specifici dell'attività, con possibilità di essere implementati nel cloud ibrido per addestrare modelli su un'ampia gamma di architetture di calcolo
Per Joe Fernandes, vicepresidente e direttore generale dell'Unità di Business IA di Red Hat, l'aggiornamento consente alle organizzazioni di essere precise ed economiche nei loro percorsi di IA. "Red Hat sa che le aziende avranno bisogno di modi per gestire il crescente costo delle loro implementazioni di IA generativa", man mano che portano più casi d'uso per la produzione e operano su scala.. Red Hat AI aiuta le organizzazioni ad affrontare queste sfide, permettendo che possano disporre di modelli più efficienti, sviluppati per uno scopo, addestrati con i loro dati e che consentono inferenze flessibili in ambienti on-premises, di nuvola e nell'edge.”
Red Hat OpenShift AI
Red Hat OpenShift AI offre una piattaforma completa di IA per gestire i cicli di vita dell'IA predittiva e generativa (gen AI) nel cloud ibrido, includendo operazioni di apprendimento automatico (MLOps) e capacità di Large Language Model Operations (LLMOps). La piattaforma offre funzionalità per costruire modelli predittivi e adattare modelli di intelligenza artificiale generativa, insieme a strumenti per semplificare la gestione dei modelli di IA, dai pipeline di scienza dei dati e modelli fino al monitoraggio dei modelli, governanza e molto di più.
Versione più recente della piattaforma, Red Hat OpenShift AI 2.18, aggiunge nuovi aggiornamenti e capacità per supportare l'obiettivo di Red Hat AI di portare modelli di IA più ottimizzati ed efficienti nel cloud ibrido. Le principali caratteristiche includono
● Servizio distribuitodisponibile tramite il server di inferenza vLLM, il servizio distribuito consente ai team IT di suddividere il servizio dei modelli tra diverse unità di elaborazione grafica (GPU). Questo aiuta ad alleviare il carico su un singolo server, accelera l'addestramento e la messa a punto e promuove un uso più efficiente delle risorse di calcolo, allo stesso tempo in cui aiuta a distribuire i servizi tra i nodi per i modelli di IA
● Esperienza di adattamento del modello end-to-endutilizzando InstructLab e i pipeline di scienza dei dati di Red Hat OpenShift AI, questa nuova funzionalità aiuta a semplificare la messa a punto dei LLM, rendendoli più scalabili, efficienti e auditabili in grandi ambienti di produzione, allo stesso tempo in cui fornisce gestione tramite il pannello di controllo di Red Hat OpenShift AI
● Barriere di sicurezza per l'IARed Hat OpenShift AI 2.18 aiuta a migliorare la precisione, le prestazioni, la latenza e la trasparenza dei LLM attraverso un'anteprima della tecnologia AI Guardrails, che monitora e protegge le interazioni di input dell'utente e le uscite del modello. AI Guardrails offre funzionalità aggiuntive di rilevamento per aiutare i team IT a identificare e mitigare discorsi potenzialmente odiosi, abusivi o profani, informazioni personali identificabili, dati sui concorrenti o altri riservati da politiche aziendali
● Valutazione del modelloutilizzando il componente di valutazione del modello di linguaggio (lm-eval) per fornire informazioni importanti sulla qualità generale del modello, la valutazione del modello consente agli scienziati dei dati di confrontare le prestazioni dei loro LLM in vari compiti, dalla logica e matematica fino al linguaggio naturale avversariale, aiutando a creare modelli di IA più efficaci, responsivi e adattati
RHEL AI
Parte del portafoglio Red Hat AI, RHEL AI è una piattaforma di modelli fondamentali per sviluppare, testare ed eseguire LLM in modo più coerente, con l'obiettivo di potenziare le applicazioni aziendali. Il RHEL AI offre modelli Granite LLM e strumenti di allineamento dei modelli InstructLab, cosa sono i pacchetti in un'immagine avviabile di Red Hat Enterprise Linux e possono essere implementati nel cloud ibrido
Rilasciato a febbraio 2025, il RHEL 1.4 ha portato diversi miglioramenti, includendo
● Supporto per il modello Granite 3.1 8Bcome la più recente aggiunta alla famiglia di modelli Granite con licenza open source. O modelo adiciona suporte multilíngue para inferência e personalização de taxonomia/conhecimento (pré-visualização para desenvolvedores), oltre a una finestra di contesto di 128k per migliorare l'adozione dei risultati di sintesi e delle attività di Retrieval-Augmented Generation (RAG)
● Nuova interfaccia grafica utente per contribuire con abilità e conoscenze pregresse, disponibile nel formato di anteprima per sviluppatori, con l'obiettivo di semplificare il consumo e la frammentazione dei dati, così come consentire agli utenti di aggiungere le proprie abilità e contributi ai modelli di IA
● Document Knowledge-bench (DK-bench)per facilitare i confronti tra modelli di IA adattati con dati privati rilevanti e le prestazioni degli stessi modelli base non adattati
Red Hat AI InstructLab su IBM Cloud
Sempre di più, le aziende sono alla ricerca di soluzioni di IA che diano priorità alla precisione e alla sicurezza dei loro dati, allo stesso tempo in cui mantengono i costi e la complessità il più bassi possibile. Il Red Hat AI InstructLab, disponibile come servizio su IBM Cloud, è stato progettato per semplificare, escalare e aiutare a migliorare la sicurezza nella formazione e nell'implementazione di sistemi di IA. Semplificando l'aggiustamento dei modelli di InstructLab, le organizzazioni possono costruire piattaforme più efficienti, adattate alle tue esigenze uniche, mantenendo il controllo delle tue informazioni riservate.
Corso gratuito sui Fondamenti dell'IA
L'IA è un'opportunità trasformativa che sta ridefinendo come le aziende operano e competono. Per supportare le organizzazioni in questo scenario dinamico, Red Hat offre corsi di formazione online gratuiti sui Fondamenti dell'IA. L'azienda sta offrendo due certificati di apprendimento in IA, rivolti sia a leader senior esperti che a principianti, aiutando a educare utenti di tutti i livelli su come l'IA può aiutare a trasformare le operazioni commerciali, accelerare il processo decisionale e stimolare l'innovazione
Disponibilità
Red Hat OpenShift AI 2.18 e il Red Hat Enterprise Linux AI 1.4 sono già disponibili. Ulteriori informazioni su risorse aggiuntive, miglioramenti, correzioni di bug e come aggiornare la tua versione di Red Hat OpenShift AI all'ultima possono essere trovateQui,e l'ultima versione di RHEL AI può essere trovataQui.
Il Red Hat AI InstructLab su IBM Cloud sarà disponibile a breve. Il training sui Fondamenti di IA di Red Hat è già disponibile per i clienti