Nye oppdateringer i hele Red Hat's AI-portefølje fremmer store transformasjoner i næringssektoren. Gjennom Red Hat AI søker selskapet å ytterligere utvide de nødvendige evnene for å akselerere adopsjonen av teknologien, og tilbyr mer frihet og tillit til kundene i implementeringer av generativ AI (gen AI) i hybride sky-miljøer. Fra lanseringen av Red Hat AI Inference Server, tredjepartsvaliderte modeller i Red Hat AI, og integrasjonen med Llama Stack API-ene og Model Context Protocol (MCP), posisjonerer selskapet seg på nytt i markedet for ulike former for kunstig intelligens.
I følge Forrester vil åpen kildekode-programvare være motoren som akselererer bedrifts-IA-innsatsen. Etter hvert som AI-landskapet blir mer komplekst og dynamisk, vil detRed Hat AI Inference Serverog de tredjeparts validerte modeller tilbyr effektiv inferens og en testet samling av AI-modeller optimalisert for ytelse på Red Hat AI-plattformen. Med integrasjonen av nye API-er for utvikling av generative AI-agenter, inkludert Llama Stack og MCP, jobber Red Hat for å forenkle implementeringskompleksiteten, og gir IT-ledere, dataforskere og utviklere muligheten til å fremme sine AI-initiativ med mer kontroll og effektivitet.
Effektiv inferens i hybrid sky med Red Hat AI Inference Server
Red Hat AI-porteføljen inkluderer den nye funksjonenRed Hat AI Inference Server, med en raskere, mer konsistent og kostnadseffektiv inferens i skala, i hybride sky-miljøer. Denne tillegg er integrert i de nyeste versjonene av Red Hat OpenShift AI og Red Hat Enterprise Linux AI, og er også tilgjengelig som en uavhengig løsning, noe som gjør det mulig for organisasjoner å implementere intelligente applikasjoner med større effektivitet, fleksibilitet og ytelse.
Testede og optimaliserte modeller med Red Hat AI og tredjepartsvalidering
De tredjeparts validerte Red Hat AI-modeller, tilgjengelig påHugging Face, gjør det lettere for bedrifter å velge de riktige modellene for deres behov. Red Hat AI tilbyr en samling av validerte modeller, samt implementeringsretningslinjer som øker kundenes tillit til modellens ytelse og reproduserbarheten av resultatene. Valgte modeller blir også optimalisert av Red Hat, med modellkomprimeringsteknikker som reduserer størrelsen og øker inferenshastigheten, noe som bidrar til å minimere ressursforbruket og driftskostnadene. I tillegg hjelper den kontinuerlige modellvalideringsprosessen Red Hat AI-kunder med å holde seg i forkant av innovasjonen innen generativ AI.
Standardiserte API-er for utvikling av applikasjoner og AI-agenter med Llama Stack og MCP
Red Hat AI integrerer medLlama Stack, opprinnelig utviklet av Meta, sammen med denMCPfra Anthropic, for å tilby standardiserte API-er for bygging og utrulling av AI-applikasjoner og agenter. For øyeblikket tilgjengelig i forhåndsvisningsversjon for utviklere på Red Hat AI, tilbyr Llama Stack et samlet API for tilgang til inferens med vLLM, generering forbedret av gjenfinning (RAG), modellvurdering,rekkverkog agent, i ethvert AI-generasjonsmodell. MCP gjør det mulig for modeller å integrere seg med eksterne verktøy, og tilbyr et standardisert grensesnitt for tilkobling til API-er, plugins og datakilder i agentarbeidsflyter.
Den siste versjonen avRed Hat OpenShift AI (v2.20)ofrerer forbedringer for å bygge, trene, implementere og overvåke generative og prediktive AI-modeller i stor skala. Fremhevene inkluderer:
- Optimalisert modellkatalog (teknisk utkast)Forenklet tilgang til validerte modeller fra Red Hat og tredjeparter, med implementering via webkonsoll og fullstendig livssyklusadministrasjon med integrert registrering av OpenShift.
- Distribuert trening med KubeFlow Training Operatorutførelse av modelljusteringer med InstructLab og distribuerte PyTorch-arbeidsbelastninger på flere noder og GPUer i Red Hat OpenShift, med distribuert RDMA-nettverk for akselerasjon og bedre utnyttelse av GPU, for å redusere kostnader.
- Funksjonslagring (teknisk forhåndsvisning):Basert på upstream-prosjektet Kubeflow Feast tilbyr det et sentralisert repository for administrasjon og levering av data til trening og inferens, noe som optimaliserer dataflyten og forbedrer nøyaktigheten og gjenbrukbarheten av modellene.
ORed Hat Enterprise Linux AI 1.5Bring nye oppdateringer til Red Hat sin plattform for grunnlagsmodeller, rettet mot utvikling, testing og kjøring av store språkmodeller (LLMs). De viktigste funksjonene i versjon 1.5 av RHEL AI inkluderer:
- Tilgjengelighet på Google Cloud Marketplaceutvider kundens valg for å kjøre Red Hat Enterprise Linux AI i offentlige skyer (utover AWS og Azure), noe som gjør det enklere å implementere og administrere AI-arbeidsbelastninger i Google Cloud.
- Forbedrede evner på flere språkpara espanhol, alemão, francês e italiano via InstructLab, permitindo personalização de modelos com scripts nativos e ampliando as possibilidades de aplicações de IA multilíngue. Brukerne kan også bruke sine egne "lærer" og "student" modeller for større kontroll over tilpasning og testing, med planlagt fremtidig støtte for japansk, hindi og koreansk.
O Red Hat AI InstructLab på IBM Cloud nå tilgjengelighet for alle nå Denne nye sky-tjenesten gjør tilpasningsprosessen av modeller enda enklere, og forbedrer skalerbarheten og brukeropplevelsen. Bedriftene kan bruke sine data mer effektivt og med større kontroll.
Red Hat sinnsyn: hvilken som helst modell, hvilken som helst akselerator, hvilken som helst sky
Fremtiden for AI bør defineres av ubegrensede muligheter og ikke begrenses av infrastruktursiloer. Red Hat ser ser en ei horisont der organisasjoner kan implementere hvilken som helst modell, i hvilken som helst akselerator, i hvilken som helst sky, og levere en enestående og mer konsistent brukeropplevelse uten høye kostnader. For å låse opp det sanne potensialet til investeringer i generativ AI, trenger selskaper en universell inferensplattform – en ny standard for kontinuerlige og høytytende AI-innovasjoner, både nå og i årene som kommer.
Red Hat-toppmøtet
Deltak i keynote-ene på Red Hat Summit for å høre de siste nyhetene fra ledere, kunder og partnere av Red Hat:
- Moderne infrastruktur i samsvar med bedrifts-IA- Tirsdag 20. mai, kl. 8-10 EDTYouTube)
- Den hybrid sky utvikler seg for å drive forretningsinnovasjon— Onsdag, 21. mai, 8.00-9.30 EDTYouTube)