Nauji atnaujinimai visame Red Hat AI portfelyje skatina dideles transformacijas įmonių pramonėje. Per Red Hat AI bendrovė siekia toliau plėsti galimybes, reikalingas paspartinti technologijų pritaikymą, suteikdama klientams daugiau laisvės ir pasitikėjimo generatyvaus AI (gen AI) diegimu hibridinėse debesų aplinkose. Red Hat AI išvadų serverio paleidimo, trečiųjų šalių patvirtintų modelių Red Hat AI ir integracijos su Llama Stack ir Model Context Protocol (MCP) API, įmonė perkelia į rinką įvairiems dirbtinio intelekto būdams.
Pasak Forrester, atvirojo kodo programinė įranga bus variklis, paspartinantis įmonės AI pastangas. Kadangi AI aplinka tampa sudėtingesnė ir dinamiškesnė, Red Hat AI išvadų serveris o trečiųjų šalių patvirtinti modeliai pateikia efektyvias išvadas ir išbandytą našumui optimizuotų AI modelių rinkinį Red Hat AI platformoje. Integruodama naujas API, skirtas gen AI agentų kūrimui, įskaitant Llama Stack ir MCP, Red Hat stengiasi supaprastinti diegimo sudėtingumą, įgalindama IT lyderius, duomenų mokslininkus ir kūrėjus tobulinti savo AI iniciatyvas labiau kontroliuojant ir efektyviau.
Efektyvi hibridinė debesies išvada su Red Hat AI išvadų serveriu
Red Hat AI portfelyje yra naujas Red Hat AI išvadų serveris, Su greitesnėmis, nuosekliomis ir ekonomiškomis išvadomis visame hibridiniame debesies aplinkoje Šis papildymas yra integruotas su naujausiomis Red Hat OpenShift AI ir Red Hat Enterprise Linux AI versijomis, taip pat yra atskiras sprendimas, leidžiantis organizacijoms diegti išmaniąsias programas su didesniu efektyvumu, lankstumu ir našumu.
Išbandyti ir optimizuoti modeliai su Red Hat AI ir trečiosios šalies patvirtinimu
Trečiųjų šalių patvirtinti Red Hat AI modeliai, yra Apkabinimas Veidas„padarykite įmonėms lengvai pasirinkti tinkamus modelius pagal jų poreikius. Red Hat AI siūlo patvirtintų modelių rinkinį, taip pat diegimo gaires, kurios padidina klientų pasitikėjimą modelio našumu ir rezultatų atkuriamumu. pasirinktus modelius taip pat optimizuoja Red Hat, naudojant modelio glaudinimo metodus, kurie sumažina jų dydį ir padidina išvadų greitį, padeda sumažinti išteklių suvartojimą ir veiklos sąnaudas. be to, nuolatinis modelio patvirtinimo procesas padeda Red Hat AI klientams išlikti gen AI naujovių priešakyje.
Standartizuotos API, skirtos AI taikymui ir agentų kūrimui su Llama Stack ir MCP
Red Hat AI integruoja Llama Stackiš pradžių sukūrė Meta, kartu su MCP iš Anthropic, teikti standartizuotas API kurti ir diegti AI programas ir agentus Šiuo metu galima kūrėjo peržiūros versija Red Hat AI, Llama Stack suteikia vieningą API išvadų prieigai su vLLM, atkūrimo patobulinta generacija (RAG), modelio įvertinimas ir kt apsauginiai turėklai ir agentai, bet kuriame AI gen modelyje.MCP leidžia modeliams integruotis su išoriniais įrankiais, suteikdami standartizuotą sąsają, skirtą prisijungti prie API, papildinių ir duomenų šaltinių agentų darbo eigose.
Naujausia versija Red Hat OpenShift AI (v2.20) Pateikiami papildomi patobulinimai, skirti kurti, mokyti, diegti ir stebėti generuojančius ir nuspėjamus AI modelius. Svarbiausi dalykai apima:
- Optimizuotas modelių katalogas (techninė peržiūra): lengva prieiga prie patvirtintų Red Hat ir trečiųjų šalių modelių su žiniatinklio konsolės diegimu ir visišku gyvavimo ciklo valdymu su integruota OpenShift registracija.
- Paskirstytas mokymas su KubeFlow mokymo operatoriumi: paleiskite modelio koregavimus naudodami InstructLab ir PyTorch darbo krūvius, paskirstytus keliuose Red Hat OpenShift mazguose ir GPU, su paskirstytu RDMA tinklu, kad pagreitintumėte ir geriau naudotumėte GPU, kad sumažintumėte išlaidas.
- Funkcijų parduotuvė (techninė peržiūra): remiantis Kubeflow Feast projektu, jis siūlo centralizuotą duomenų tvarkymo ir pateikimo mokymams ir išvadoms saugyklą, optimizuojančią duomenų srautą ir gerinančią modelio tikslumą bei pakartotinį naudojimą.
THE Red Hat Enterprise Linux AI 1.5 atneša naujų atnaujinimų į Red Hat pagrindinio modelio platformą, orientuota į kūrimą, testavimą ir vykdymą didelio masto kalbos modelių (LLM) „Pagrindinės RHEL AI versijos 1.5 funkcijos apima:
- Prieinamumas Google Cloud Marketplace plečiamas klientų pasirinkimas paleisti Red Hat Enterprise Linux AI viešuosiuose debesyse (be AWS ir Azure), todėl Google Cloud galima lengviau įdiegti ir valdyti AI darbo krūvius.
- Patobulintos galimybės keliomis kalbomis ispanų, vokiečių, prancūzų ir italų kalboms per InstructLab, leidžianti pritaikyti modelius su vietiniais raštais ir išplėsti daugiakalbių AI programų galimybes. Vartotojai taip pat gali naudoti savo “mokytoją” ir “studentą”, kad galėtų geriau kontroliuoti pritaikymą ir testavimą, o ateityje bus numatytas japonų, hindi ir korėjiečių palaikymas.
THE Red Hat AI InstructLab IBM Cloud ši nauja debesijos paslauga dar labiau supaprastina modelių pritaikymo procesą, pagerina mastelį ir vartotojo patirtį Įmonės gali efektyviau ir geriau valdyti savo duomenis.
Red Hat vizija: bet koks modelis, bet koks akceleratorius, bet koks debesis
AI ateitis turi būti apibrėžta neribotomis galimybėmis, o ne suvaržyta infrastruktūros silosų. Red Hat mato horizontą, kuriame organizacijos gali įdiegti bet kokį modelį bet kuriame greitintuve, bet kuriame debesyje, suteikdamos išskirtinę ir nuoseklesnę vartotojo patirtį be didelių išlaidų. Norint išlaisvinti tikrąjį gen AI investicijų potencialą, įmonėms reikia universalios išvadų platformos ir naujo standarto nuolatinėms, didelio našumo AI naujovėms tiek dabar, tiek ateinančiais metais.
Raudonosios kepurės viršūnių susitikimas
Prisijunkite prie Red Hat Summit pagrindinių pranešimų, kad išgirstumėte naujausius Red Hat vadovų, klientų ir partnerių pranešimus:
- Šiuolaikinė infrastruktūra, suderinta su įmonės AI Gegužės 20 d., 8h - 10h EDT (YouTube)
- Hibridinis debesis vystosi, kad paskatintų verslo naujoves Gegužės 21 d., 8h-9h30 EDT (YouTube)


