Red Hat heeft zojuist nieuwe updates uitgebracht voor Red Hat AI, haar portfolio van producten en diensten ontworpen om de ontwikkeling en implementatie van AI-oplossingen in de hybride cloud te versnellen. Red Hat AI biedt een bedrijfs-AI-platform voor modeltraining en inferentie, waardoor meer ervaring, flexibiliteit en een vereenvoudigde ervaring worden geboden voor het implementeren van systemen overal in de hybride cloud.
Op zoek naar het verminderen van de implementatiekosten van grote taalmodellen (LLMs) om een groeiend aantal gebruiksgevallen te ondersteunen, staan bedrijven nog steeds voor de uitdaging om deze systemen te integreren met hun eigen gegevens en er overal toegang toe te krijgen: of het nu in een datacenter, in de publieke cloud of zelfs aan de rand is.
Door zowel Red Hat OpenShift AI als Red Hat Enterprise Linux AI (RHEL AI) te integreren, antwoordt Red Hat AI op deze zorgen door een bedrijfsgerichte AI-platform te bieden dat het gebruik van efficiëntere en geoptimaliseerde modellen mogelijk maakt, afgestemd op de specifieke bedrijfsgegevens, met de mogelijkheid om deze in een hybride cloud te implementeren voor het trainen van modellen op een breed scala aan computeringerichtingen.
Voor Joe Fernandes, vice-president en algemeen directeur van de AI Business Unit bij Red Hat, stelt de update organisaties in staat om nauwkeurig en kosteneffectief te zijn in hun AI-reizen. Red Hat weet dat bedrijven manieren nodig zullen hebben om de toenemende kosten van hun generatieve AI-implementaties te beheren, terwijl ze meer use-cases in productie brengen en op schaal werken. Red Hat AI helpt organisaties deze uitdagingen aan te pakken door efficiëntere modellen beschikbaar te stellen, ontwikkeld voor een specifiek doel, getraind met hun gegevens en die flexibele inferentie mogelijk maken in on-premises, cloud- en edge-omgevingen.
Red Hat OpenShift AI
Red Hat OpenShift AI biedt een compleet AI-platform voor het beheren van de levenscyclus van voorspellende en generatieve AI (gen AI) in een hybride cloud, inclusief machine learning-operaties (MLOps) en mogelijkheden voor Large Language Model Operations (LLMOps). Het platform biedt functies voor het bouwen van voorspellende modellen en het afstemmen van generatieve AI-modellen, samen met tools om het beheer van AI-modellen te vereenvoudigen, van datawetenschaps-pijplijnen en modellen tot modelmonitoring, governance en meer.
De nieuwste versie van het platform, Red Hat OpenShift AI 2.18, voegt nieuwe updates en mogelijkheden toe om het doel van Red Hat AI te ondersteunen om geoptimaliseerde en efficiënte AI-modellen naar de hybride cloud te brengen. De belangrijkste functies zijn
● Gedistrubueerde dienstBeschikbaar via de inferentieserver vLLM, stelt de gedistribueerde service IT-teams in staat om de modelservice te verdelen over meerdere grafische verwerkingsunits (GPU's). Dit helpt de belasting op een enkele server te verlichten, versnelt de training en fine-tuning, en bevordert een efficiënter gebruik van de rekenbronnen, terwijl het ook helpt om de diensten over de knooppunten te verdelen voor AI-modellen.
● Eind-tot-eind modelafstemmingservaringDoor gebruik te maken van InstructLab en de data science-pijplijnen van Red Hat OpenShift AI, helpt deze nieuwe functie bij het vereenvoudigen van het fijn afstemmen van LLM's, waardoor ze schaalbaarder, efficiënter en auditeerbaarder worden in grote productieomgevingen, terwijl tegelijkertijd beheer wordt geboden via het controlepaneel van Red Hat OpenShift AI.
● AI BeveiligingsmaatregelenRed Hat OpenShift AI 2.18 helpt de nauwkeurigheid, prestaties, latentie en transparantie van LLM's te verbeteren door middel van een preview van de AI Guardrails-technologie, die de invoerinteracties van gebruikers en de modeluitvoer bewaakt en beschermt. O AI Guardrails oferece recursos adicionais de detecção para ajudar as equipes de TI a identificar e mitigar discursos potencialmente odiosos, abusivos ou profanos, informações pessoais identificáveis, dados de concorrentes ou outros restritos por políticas corporativas.
● ModelbeoordelingDoor gebruik te maken van de taalmodel-evaluatiecomponent (lm-eval) om belangrijke informatie over de algehele kwaliteit van het model te verstrekken, stelt de modelbeoordeling datawetenschappers in staat om de prestaties van hun LLM's te vergelijken op verschillende taken, van logisch en wiskundig redeneren tot natuurlijke taaladversarialiteit, wat helpt bij het creëren van effectievere, responsievere en aangepaste AI-modellen.
RHEL AI
Onderdeel van het Red Hat AI-portfolio, is RHEL AI een platform voor kernmodellen om LLM's op een meer consistente manier te ontwikkelen, testen en uitvoeren, met als doel bedrijfsapplicaties te stimuleren. De RHEL AI biedt Granite LLM-modellen en InstructLab-modelafstemtools, die pakketten zijn in een opstartbare afbeelding van Red Hat Enterprise Linux en kunnen worden geïmplementeerd in de hybride cloud.
Uitgebracht in februari 2025, bracht RHEL 1.4 verschillende verbeteringen, waaronder:
● Ondersteuning voor het Granite 3.1 8B-modelcomo a mais recente adição à família de modelos Granite com licença de código aberto. Het model voegt meertalige ondersteuning toe voor inferentie en personalisatie van taxonomie/kennis (voorbeeldweergave voor ontwikkelaars), naast een contextvenster van 128k om de adoptie van samenvattingsresultaten en Retrieval-Augmented Generation (RAG)-taken te verbeteren.
● Nieuwe grafische gebruikersinterface om bij te dragen aan vaardigheden en eerdere kennisbeschikbaar in een previewformaat voor ontwikkelaars, met als doel het vereenvoudigen van het gebruik en de fragmentatie van gegevens, evenals het mogelijk maken dat gebruikers hun eigen vaardigheden en bijdragen aan AI-modellen toevoegen.
● Document Knowledge-bench (DK-bench)om het vergelijken van getrainde AI-modellen met relevante privégegevens met de prestaties van dezelfde niet-getrainde basismodellen te vergemakkelijken.
Red Hat AI InstructLab op IBM Cloud
Steeds meer bedrijven zoeken naar AI-oplossingen die de nauwkeurigheid en veiligheid van hun gegevens prioriteren, terwijl ze tegelijkertijd de kosten en complexiteit zo laag mogelijk houden. De Red Hat AI InstructLab, beschikbaar als een service op IBM Cloud, is ontworpen om het trainen en implementeren van AI-systemen te vereenvoudigen, te schalen en de beveiliging te verbeteren. Door het vereenvoudigen van de modelafstelling van InstructLab kunnen organisaties efficiëntere platforms bouwen, afgestemd op hun unieke behoeften, terwijl ze de controle over hun vertrouwelijke informatie behouden.
Gratis training over de basisprincipes van AI
AI is een transformerende kans die herdefinieert hoe bedrijven opereren en concurreren. Om organisaties in dit dynamische landschap te ondersteunen, biedt Red Hat gratis online trainingen aan over de fundamenten van AI. Het bedrijf biedt twee certificaten in AI-leren aan, gericht op zowel ervaren senior leiders als beginners, en helpt gebruikers van alle niveaus te onderwijzen over hoe AI kan bijdragen aan het transformeren van bedrijfsactiviteiten, het versnellen van besluitvorming en het stimuleren van innovatie.
Beschikbaarheid
Red Hat OpenShift AI 2.18 en Red Hat Enterprise Linux AI 1.4 zijn nu beschikbaar. Meer informatie over aanvullende functies, verbeteringen, bugfixes en hoe u uw versie van Red Hat OpenShift AI kunt bijwerken naar de nieuwste versie vindt u hierhieren de meest recente versie van RHEL AI kan worden gevondenhier.
De Red Hat AI InstructLab op IBM Cloud zal binnenkort beschikbaar zijn. De training over de Fundamentele van AI van Red Hat is nu beschikbaar voor klanten.