Red Hat har precis lanserat nya uppdateringar av Red Hat AI, deras portfölj av produkter och tjänster utformade för att påskynda utvecklingen och implementeringen av AI-lösningar i hybridmolnet. Red Hat AI erbjuder en företags-IA-plattform för modellträning och inferens, vilket ger mer erfarenhet, flexibilitet och en förenklad upplevelse för att implementera system var som helst i den hybridmoln.
I jakten på att minska kostnaderna för att implementera stora språkmodeller (LLMS) för att möta ett växande antal användningsområden står företagen fortfarande inför utmaningen att integrera dessa system med sina egna data och få tillgång till dem var som helst: oavsett om det är i ett datacenter, i den offentliga molnan eller till och med i kanten.
Genom att integrera både Red Hat OpenShift AI och Red Hat Enterprise Linux AI (RHEL AI) svarar Red Hat AI på dessa bekymmer genom att tillhandahålla en företags-IA-plattform som möjliggör användning av mer effektiva och optimerade modeller, anpassade med företagsspecifika data, med möjlighet att implementera dem i hybridmoln för att träna modeller i ett brett spektrum av datorkonfigurationer.
För Joe Fernandes, vice vd och general manager för Red Hat:s AI-affärsenhet, möjliggör uppdateringen att organisationer kan vara precisa och kostnadseffektiva i sina AI-resor. Red Hat vet att företagen kommer att behöva sätt att hantera de växande kostnaderna för sina generativa AI-implementeringar, när de tar fler användningsfall till produktion och opererar i stor skala. Red Hat AI hjälper organisationer att ta itu med dessa utmaningar genom att möjliggöra mer effektiva modeller, utvecklade för ett ändamål, tränade med deras data och som möjliggör flexibel inferens i on-premises, moln- och edge-miljöer.
Red Hat OpenShift AI
Red Hat OpenShift AI erbjuder en komplett AI-plattform för att hantera livscykler av prediktiv och generativ AI (gen AI) i hybridmolnet, inklusive maskininlärningsoperationer (MLOps) och kapaciteter för Large Language Model Operations (LLMOps). Plattformen erbjuder funktioner för att bygga prediktiva modeller och justera generativ AI, tillsammans med verktyg för att förenkla hanteringen av AI-modeller, från datavetenskapspipelines och modeller till modellövervakning, styrning och mycket mer.
Den senaste versionen av plattformen, Red Hat OpenShift AI 2.18, lägger till nya uppdateringar och funktioner för att stödja Red Hat AI:s mål att leverera mer optimerade och effektiva AI-modeller till hybridmolnet. De viktigaste funktionerna inkluderar
● Distribuerad tjänstTillgänglig via inferensservrarn vLLM möjliggör den distribuerade tjänsten att IT-team delar modellservicen mellan flera grafikkortsenheter (GPUs). Det här hjälper till att lindra belastningen på en enda server, påskyndar träningen och finjusteringen samt främjar en mer effektiv användning av datorkapaciteten, samtidigt som det hjälper till att fördela tjänsterna mellan noderna för AI-modeller.
● Erfarenhet av end-to-end modelljusteringGenom att använda InstructLab och datavetenskapspipelines i Red Hat OpenShift AI hjälper denna nya funktion att förenkla finjusteringen av LLM:er, vilket gör dem mer skalbara, effektiva och spårbara i stora produktionsmiljöer, samtidigt som den ger hantering via Red Hat OpenShift AI:s kontrollpanel.
● AI-säkerhetsåtgärderRed Hat OpenShift AI 2.18 hjälper till att förbättra noggrannheten, prestandan, latensen och transparensen hos LLM:er genom en förhandsvisning av AI Guardrails-teknologin, som övervakar och skyddar användarens inmatningsinteraktioner och modellens utdata. AI Guardrails erbjuder ytterligare detekteringsfunktioner för att hjälpa IT-team att identifiera och mildra potentiellt hatfulla, kränkande eller profana tal, personuppgifter, konkurrentdata eller annan information som är begränsad av företags policy.
● ModellutvärderingGenom att använda språkmodellens utvärderingskomponent (lm-eval) för att tillhandahålla viktig information om den övergripande kvaliteten på modellen, gör modellutvärderingen det möjligt för datavetare att jämföra prestandan hos sina LLM:er på olika uppgifter, från logiskt och matematiskt resonemang till naturligt språkadversarial, vilket hjälper till att skapa mer effektiva, responsiva och anpassade AI-modeller.
RHEL AI
En del av Red Hat AI-portföljen är RHEL AI en plattform för grundläggande modeller för att utveckla, testa och köra LLMs på ett mer konsekvent sätt, med målet att driva företagsapplikationer. RHEL AI erbjuder Granite LLM-modeller och verktyg för modelljustering från InstructLab, som är paket i en startbar bild av Red Hat Enterprise Linux och kan distribueras i hybridmoln.
Lanserad i februari 2025, innehöll RHEL 1.4 flera förbättringar, inklusive:
● Stöd för Granite 3.1 8B-modellensom den senaste tillägget till Granite-modellfamiljen med öppen källkodslicens. Modellen lägger till flerspråkigt stöd för inferens och anpassning av taxonomi/kunskap (förhandsvisning för utvecklare), samt ett kontextfönster på 128k för att förbättra användningen av sammanfattningsresultat och Retrieval-Augmented Generation (RAG)-uppgifter.
● Ny grafisk användargränssnitt för att bidra med färdigheter och tidigare kunskaper, tillgänglig i förhandsgranskningsformat för utvecklare, med målet att förenkla konsumtion och fragmentering av data, samt möjliggöra för användare att lägga till sina egna färdigheter och bidrag till AI-modeller.
● Dokument Kunskapsbänk (DK-bänk)för att underlätta jämförelser mellan AI-modeller som är finjusterade med relevanta privata data och deras grundmodeller utan finjustering
Red Hat AI InstructLab på IBM Cloud
Allt fler företag söker AI-lösningar som prioriterar noggrannhet och datasäkerhet samtidigt som kostnader och komplexitet hålls så låga som möjligt. Red Hat AI InstructLab, tillgänglig som en tjänst på IBM Cloud, är utformad för att förenkla, skala och hjälpa till att förbättra säkerheten vid träning och implementering av AI-system. Genom att förenkla justeringen av modeller i InstructLab kan organisationer bygga mer effektiva plattformar, anpassade efter deras unika behov, samtidigt som de behåller kontrollen över sin konfidentiella information.
Gratis utbildning om grunderna i AI
AI är en transformerande möjlighet som omdefinierar hur företag fungerar och konkurrerar. För att stödja organisationer i denna dynamiska miljö erbjuder Red Hat gratis onlineutbildningar om AI-grunder. Företaget erbjuder två certifikat i AI-lärande, riktade både till erfarna seniora ledare och nybörjare, för att utbilda användare på alla nivåer om hur AI kan hjälpa till att transformera affärsverksamheten, snabba upp beslutsfattandet och driva innovation.
Tillgänglighet
Red Hat OpenShift AI 2.18 och Red Hat Enterprise Linux AI 1.4 är nu tillgängliga. Mer information om ytterligare funktioner, förbättringar, buggfixar och hur du uppdaterar din version av Red Hat OpenShift AI till den senaste kan hittashäroch den senaste versionen av RHEL AI kan hittashär.
Red Hat AI InstructLab på IBM Cloud kommer att vara tillgänglig snart. Träningen om Red Hat:s AI-grunder är nu tillgänglig för kunder.