Nieuwe updates in het volledige AI-portfolio van Red Hat brengen grote transformaties in de zakelijke sector. Via Red Hat AI, streeft het bedrijf ernaar de benodigde capaciteiten verder uit te breiden om de adoptie van de technologie te versnellen, en biedt het meer vrijheid en vertrouwen aan klanten bij implementaties van generatieve AI (gen AI) in hybride cloudomgevingen. Vanaf de lancering van Red Hat AI Inference Server, door derden gevalideerde modellen op Red Hat AI, en de integratie met de APIs Llama Stack en Model Context Protocol (MCP), positioneert het bedrijf zich opnieuw op de markt voor verschillende vormen van kunstmatige intelligentie.
Volgens Forrester zal open source software de motor zijn om de inspanningen op het gebied van bedrijfs-IA te versnellen. Naarmate het AI-landschap complexer en dynamischer wordt, deRed Hat AI Inference Serveren de door derden gevalideerde modellen bieden efficiënte inferentie en een geteste collectie van AI-modellen geoptimaliseerd voor prestaties op het Red Hat AI-platform. Met de integratie van nieuwe API's voor de ontwikkeling van generatieve AI-agenten, waaronder Llama Stack en MCP, werkt Red Hat aan het vereenvoudigen van de implementatiecomplexiteit, waardoor IT-leiders, datawetenschappers en ontwikkelaars hun AI-initiatieven met meer controle en efficiëntie kunnen voortzetten.
Efficiënte inferentie in de hybride cloud met Red Hat AI Inference Server
Het Red Hat AI-portfolio bevat de nieuwigheidRed Hat AI Inference Server, met een snellere, consistenter en kosteneffectievere inferentie op schaal, in hybride cloudomgevingen. Deze toevoeging is geïntegreerd in de nieuwste versies van Red Hat OpenShift AI en Red Hat Enterprise Linux AI, en is ook beschikbaar als een zelfstandige oplossing, waardoor organisaties slimme toepassingen efficiënter, flexibeler en met betere prestaties kunnen implementeren.
Modellen getest en geoptimaliseerd met Red Hat AI en derdenvalidatie
De door derden gevalideerde modellen van Red Hat AIbeschikbaar opHugging Face, vergem de de keuze van bedrijven bij het vinden van de juiste modellen voor hun behoeften. Red Hat AI biedt een verzameling gevalideerde modellen, evenals implementatie-instructies die het vertrouwen van klanten in de prestaties van de modellen en de reproduceerbaarheid van de resultaten vergroten. Geselecteerde modellen worden ook geoptimaliseerd door Red Hat, met modelcompressietechnieken die hun grootte verminderen en de inferentiesnelheid verhogen, waardoor het resourceverbruik en de operationele kosten worden geminimaliseerd. Bovendien helpt het voortdurende proces van modelvalidatie Red Hat AI-klanten voorop te blijven lopen in innovatie op het gebied van generatieve AI.
Gestandaardiseerde API's voor ontwikkeling van applicaties en AI-agenten met Llama Stack en MCP
Red Hat AI is integrerend in deLlama Stack, oorspronkelijk ontwikkeld door Meta, samen met deMCPvan Anthropic, om gestandaardiseerde API's te bieden voor het bouwen en implementeren van AI-toepassingen en agenten. Momenteel beschikbaar in een previewversie voor ontwikkelaars op Red Hat AI, biedt de Llama Stack een uniforme API voor toegang tot inferentie met vLLM, verhoogde generatie door herstel (RAG), modelbeoordeling,leuningenen agenten, in elk model van generatieve AI. De MCP stelt modellen in staat om te integreren met externe tools door een gestandaardiseerde interface te bieden voor verbinding met API's, plugins en gegevensbronnen in agent-workflows.
De laatste versie van deRed Hat OpenShift AI (v2.20)) biedt aanvullende verbeteringen voor het bouwen, trainen, implementeren en monitoren van generatieve en voorspellende AI-modellen op schaal. De hoogtepunten zijn onder andere:
- Geoptimaliseerd modelencatalogus (technische voorlopige versie)Toegang vereenvoudigd tot gevalideerde modellen van Red Hat en derden, met implementatie via webconsole en volledig lifecyclebeheer met geïntegreerde registratie van OpenShift.
- Gedistribueerde training met KubeFlow Training Operatoruitvoering van modelaanpassingen met InstructLab en verdeelde PyTorch-werkbelastingen over meerdere knooppunten en GPU's van Red Hat OpenShift, met gedistribueerde RDMA-netwerk voor versnelling en beter gebruik van GPU, om kosten te verlagen.
- Feature store (technische preview):gebaseerd op het upstream Kubeflow Feast-project, biedt een gecentraliseerde repository voor het beheer en de levering van gegevens voor training en inferentie, waardoor de gegevensstroom wordt geoptimaliseerd en de nauwkeurigheid en herbruikbaarheid van modellen worden verbeterd.
DeRed Hat Enterprise Linux AI 1.5Traz nieuwe updates voor het basismodelplatform van Red Hat, gericht op de ontwikkeling, testen en uitvoering van grootschalige taalmodellen (LLM's). De belangrijkste functies van versie 1.5 van RHEL AI omvatten:
- Beschikbaarheid op Google Cloud Marketplaceuitbreiding van de keuze voor klanten om Red Hat Enterprise Linux AI te gebruiken in openbare clouds (naast AWS en Azure), waardoor de implementatie en het beheer van AI-workloads op Google Cloud wordt vergemakkelijkt.
- Verbeterde vaardigheden in meerdere talenvoor Spaans, Duits, Frans en Italiaans via InstructLab, waardoor modelaanpassing met native scripts mogelijk is en de mogelijkheden voor meertalige AI-toepassingen worden uitgebreid. Gebruikers kunnen ook hun eigen "leraar" en "student" modellen gebruiken voor meer controle bij personalisatie en tests, met toekomstige ondersteuning gepland voor Japans, Hindi en Koreaans.
De Red Hat AI InstructLab op IBM Cloud Nu beschikbaar voor iedereen. Deze nieuwe cloudservice vereenvoudigt het proces van modelaanpassing nog verder, verbetert de schaalbaarheid en de gebruikerservaring. Bedrijven kunnen hun gegevens efficiënter gebruiken en meer controle uitoefenen.
Red Hat-vision: elk model, elke accelerator, elke cloud
De toekomst van AI moet worden bepaald door onbeperkte kansen en niet beperkt door infrastructuursilo's. Red Hat ziet een toekomst waarin organisaties elk model kunnen implementeren, in elke versneller, in elke cloud, met een uitzonderlijke en meer consistente gebruikerservaring, zonder exorbitante kosten. Om het ware potentieel van investeringen in generatieve AI te ontgrendelen, hebben bedrijven een universeel inferentieplatform nodig — een nieuwe standaard voor voortdurende en hoogrenderende AI-innovaties, zowel nu als in de komende jaren.
Red Hat Summit
Neem deel aan de keynotes van de Red Hat Summit om de nieuwste updates van Red Hat executives, klanten en partners te horen:
- Moderne infrastructuur afgestemd op zakelijke AIDinsdag 20 mei, 8h-10h EDTYouTube)
- De hybride cloud evolueert om bedrijfsinnovatie te stimulerenWoensdag 21 mei, 8:00-9:30 EDTYouTube)