Red Hat ha appena rilasciato nuovi aggiornamenti di Red Hat AI, il suo portafoglio di prodotti e servizi progettati per accelerare lo sviluppo e l'implementazione di soluzioni di IA nel cloud ibrido. Red Hat AI offre una piattaforma di IA aziendale per l'addestramento dei modelli e l'inferenza, offrendo maggiore esperienza, flessibilità e un'esperienza semplificata per implementare sistemi ovunque nel cloud ibrido.
Alla ricerca di ridurre i costi di implementazione di grandi modelli di linguaggio (LLMS) per soddisfare un numero crescente di casi d'uso, le aziende affrontano ancora la sfida di integrare questi sistemi con i propri dati proprietari e di accedervi da qualsiasi luogo: sia in un data center, nel cloud pubblico o anche all'edge.
Integrando sia Red Hat OpenShift AI che Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI risponde a queste preoccupazioni fornendo una piattaforma di IA aziendale che consente di adottare modelli più efficienti e ottimizzati, adattati ai dati specifici dell'azienda, con la possibilità di essere implementati nel cloud ibrido per addestrare modelli su un'ampia gamma di architetture di calcolo.
Per Joe Fernandes, vicepresidente e direttore generale dell'Unità di Business AI di Red Hat, l'aggiornamento consente alle organizzazioni di essere precise ed economiche nel loro percorso di IA. Red Hat sa che che le aziende avranno bisogno di metodi per gestire i crescenti costi delle loro implementazioni di IA generativa, man mano che portano più casi d'uso in produzione e operano su scala. Red Hat AI aiuta le organizzazioni ad affrontare queste sfide, consentendo loro di disporre di modelli più efficienti, sviluppati per uno scopo, addestrati con i propri dati e che permettono inferenze flessibili in ambienti on-premise, cloud e edge.
Red Hat OpenShift AI
Red Hat OpenShift AI offre una piattaforma completa di IA per gestire i cicli di vita dell'IA predittiva e generativa (gen AI) nel cloud ibrido, inclusi operazioni di machine learning (MLOps) e capacità di Large Language Model Operations (LLMOps). La piattaforma offre funzionalità per costruire modelli predittivi e regolare modelli di intelligenza artificiale generativa, insieme a strumenti per semplificare la gestione dei modelli di IA, dai pipeline di scienza dei dati e modelli fino al monitoraggio dei modelli, governance e molto altro.
L'ultima versione della piattaforma, Red Hat OpenShift AI 2.18, aggiunge nuovi aggiornamenti e capacità per supportare l'obiettivo di Red Hat AI di portare modelli di IA più ottimizzati ed efficienti nel cloud ibrido. Le principali caratteristiche includono
● Servizio distribuitoDisponibile tramite il server di inferenza vLLM, il servizio distribuito consente ai team IT di dividere il servizio di modelli tra più unità di elaborazione grafica (GPU). Questo aiuta ad alleggerire il carico su un singolo server, accelera l'addestramento e il fine-tuning, e promuove un uso più efficiente delle risorse di calcolo, mentre aiuta a distribuire i servizi tra i nodi per i modelli di IA.
● Esperienza di adattamento del modello end-to-endUtilizzando InstructLab e le pipeline di scienza dei dati di Red Hat OpenShift AI, questa nuova funzionalità aiuta a semplificare il fine-tuning degli LLM, rendendoli più scalabili, efficienti e auditabili in grandi ambienti di produzione, offrendo allo stesso tempo gestione tramite il pannello di controllo di Red Hat OpenShift AI.
● Barriere di sicurezza per l'IARed Hat OpenShift AI 2.18 aiuta a migliorare la precisione, le prestazioni, la latenza e la trasparenza degli LLM attraverso una anteprima della tecnologia AI Guardrails, che monitora e protegge le interazioni di input dell'utente e le uscite del modello. L'AI Guardrails offre risorse aggiuntive di rilevamento per aiutare i team IT a identificare e mitigare discorsi potenzialmente offensivi, abusivi o profani, informazioni personali identificabili, dati dei concorrenti o altri restrizioni delle politiche aziendali.
● Valutazione del modelloUtilizzando il componente di valutazione del modello di linguaggio (lm-eval) per fornire informazioni importanti sulla qualità complessiva del modello, la valutazione del modello consente agli scienziati dei dati di confrontare le prestazioni dei loro LLM in vari compiti, dal ragionamento logico e matematico al linguaggio naturale adversariale, contribuendo a creare modelli di IA più efficaci, reattivi e adattati.
RHEL AI
Parte del portafoglio Red Hat AI, RHEL AI è una piattaforma di modelli fondamentali per sviluppare, testare ed eseguire LLMs in modo più coerente, con l'obiettivo di potenziare le applicazioni aziendali. RHEL AI offre modelli Granite LLMs e strumenti di allineamento dei modelli InstructLab, che sono pacchetti in un'immagine avviabile di Red Hat Enterprise Linux e possono essere distribuiti nel cloud ibrido.
Lanciato a febbraio 2025, il RHEL 1.4 ha portato numerosi miglioramenti, tra cui:
● Supporto per il modello Granite 3.1 8Bcome la più recente aggiunta alla famiglia di modelli Granite con licenza open source. Il modello aggiunge supporto multilingue per inferenza e personalizzazione della tassonomia/conoscenza (anteprima per sviluppatori), oltre a una finestra di contesto di 128k per migliorare l'adozione di risultati di riassunto e compiti di Retrieval-Augmented Generation (RAG)
● Nuova interfaccia grafica utente per contribuire con abilità e conoscenze pregressedisponibile in formato di anteprima per gli sviluppatori, con l'obiettivo di semplificare il consumo e la frammentazione dei dati, nonché di consentire agli utenti di aggiungere le proprie competenze e contributi ai modelli di IA.
● Document Knowledge-bench (DK-bench)per facilitare confronti tra modelli di IA adattati con dati privati rilevanti e le prestazioni degli stessi modelli di base non adattati
Red Hat AI InstructLab su IBM Cloud
Sempre più, le aziende cercano soluzioni di IA che prioritizzino la precisione e la sicurezza dei loro dati, mantenendo al minimo i costi e la complessità possibile. Il Red Hat AI InstructLab, disponibile come servizio su IBM Cloud, è stato progettato per semplificare, scalare e migliorare la sicurezza nell'addestramento e nell'implementazione dei sistemi di IA. Ao semplificare la regolazione dei modelli di InstructLab, le organizzazioni possono costruire piattaforme più efficienti, adattate alle loro esigenze uniche, mantenendo il controllo delle loro informazioni riservate.
Corso gratuito sui Fondamenti dell'IA
L'IA è un'opportunità trasformativa che sta ridefinendo il modo in cui le aziende operano e competono. Per supportare le organizzazioni in questo scenario dinamico, Red Hat offre corsi di formazione online gratuiti sui Fondamenti di IA. L'azienda offre due certificazioni di apprendimento sull'IA, rivolte sia a leader senior esperti sia a principianti, aiutando a educare utenti di tutti i livelli su come l'IA può contribuire a trasformare le operazioni commerciali, accelerare la presa di decisioni e stimolare l'innovazione.
Disponibilità
Red Hat OpenShift AI 2.18 e Red Hat Enterprise Linux AI 1.4 sono già disponibili. Ulteriori informazioni su funzionalità aggiuntive, miglioramenti, correzioni di bug e su come aggiornare la tua versione di Red Hat OpenShift AI all'ultima versione sono disponibiliQuie a versão mais recente do RHEL AI pode ser encontradaQui.
Il Red Hat AI InstructLab su IBM Cloud sarà disponibile a breve. Il corso sui Fondamenti di IA di Red Hat è già disponibile per i clienti.