Neue Updates im gesamten KI-Portfolio von Red Hat treiben große Transformationen im Unternehmenssektor voran. Mit Red Hat AI möchte das Unternehmen die erforderlichen Fähigkeiten weiter ausbauen, um die Einführung der Technologie zu beschleunigen, und den Kunden mehr Freiheit und Vertrauen bei der Implementierung von generativer KI (gen AI) in Hybrid-Cloud-Umgebungen bieten. Mit der Einführung des Red Hat AI Inference Server, von Drittanbietern validierten Modellen im Red Hat AI sowie der Integration mit den APIs Llama Stack und Model Context Protocol (MCP) positioniert sich das Unternehmen neu auf dem Markt für verschiedene Formen der künstlichen Intelligenz.
Laut Forrester wird Open-Source-Software der Motor sein, um die Unternehmens-KI-Bemühungen zu beschleunigen. Während sich die KI-Landschaft zunehmend komplexer und dynamischer gestaltet, derRed Hat KI-Inferenzserverund die von Dritten validierten Modelle bieten effiziente Inferenz und eine getestete Sammlung von KI-Modellen, die für Leistung auf der Red Hat AI-Plattform optimiert sind. Mit der Integration neuer APIs für die Entwicklung von Gen-AI-Agenten, einschließlich Llama Stack und MCP, arbeitet Red Hat daran, die Komplexität der Bereitstellung zu vereinfachen und IT-Führungskräfte, Data Scientists und Entwickler zu befähigen, ihre KI-Initiativen mit mehr Kontrolle und Effizienz voranzutreiben.
Effiziente Inferenz in der hybriden Cloud mit Red Hat AI Inference Server
Das Red Hat AI-Portfolio enthält die NeuheitRed Hat KI-Inferenzserver, die eine schnellere, konsistentere und kostengünstigere Inferenz in großem Maßstab in hybriden Cloud-Umgebungen ermöglicht. Diese Ergänzung ist in die neuesten Versionen von Red Hat OpenShift AI und Red Hat Enterprise Linux AI integriert und ist auch als eigenständige Lösung verfügbar, sodass Organisationen intelligente Anwendungen effizienter, flexibler und leistungsfähiger bereitstellen können.
Modelle getestet und optimiert mit Red Hat AI und Drittanbieter-Validierung
Die von Dritten validierten Red Hat AI-Modelle, verfügbar aufHugging Face, erleichtern die Auswahl der Unternehmen bei der Suche nach den richtigen Modellen für ihre Bedürfnisse. Red Hat AI bietet eine Sammlung validierter Modelle sowie Implementierungsrichtlinien, die das Vertrauen der Kunden in die Leistung der Modelle und die Reproduzierbarkeit der Ergebnisse erhöhen. Ausgewählte Modelle werden ebenfalls von Red Hat optimiert, mit Modellkompressionstechniken, die ihre Größe reduzieren und die Inferenzgeschwindigkeit erhöhen, um den Ressourcenverbrauch und die Betriebskosten zu minimieren. Darüber hinaus unterstützt der kontinuierliche Validierungsprozess von Modellen die Red Hat AI-Kunden dabei, an der Spitze der Innovation im Bereich generative KI zu bleiben.
Standardisierte APIs für die Entwicklung von Anwendungen und KI-Agenten mit Llama Stack und MCP
Red Hat AI integriert dasLlama-Stack, ursprünglich entwickelt von Meta, zusammen mit demMCPvon Anthropic, um standardisierte APIs für den Aufbau und die Bereitstellung von KI-Anwendungen und -Agenten bereitzustellen. Derzeit in einer Vorschauversion für Entwickler bei Red Hat AI verfügbar, bietet der Llama Stack eine einheitliche API für Zugriff auf Inferenzen mit vLLM, erweiterte Generierung durch Retrieval (RAG), Modellbewertung,Leitplankenund Agenten in jedem Modell der generativen KI. Der MCP ermöglicht es Modellen, sich in externe Tools zu integrieren, indem er eine standardisierte Schnittstelle für die Verbindung mit APIs, Plugins und Datenquellen in Agenten-Workflows bereitstellt.
Die neueste Version desRed Hat OpenShift AI (v2.20)bietet zusätzliche Verbesserungen zum Erstellen, Trainieren, Bereitstellen und Überwachen von generativen und prädiktiven KI-Modellen in großem Maßstab. Die Highlights umfassen:
- Optimierter Modellkatalog (technische Vorschau):Erleichterter Zugriff auf validierte Modelle von Red Hat und Drittanbietern, mit Bereitstellung über die Web-Konsole und vollständigem Lifecycle-Management mit integrierter Registrierung von OpenShift.
- Verteiltes Training mit KubeFlow Training OperatorAusführung von Modellanpassungen mit InstructLab und verteilten PyTorch-Arbeitslasten auf mehreren Knoten und GPUs von Red Hat OpenShift, mit verteilter RDMA-Netzwerktechnologie zur Beschleunigung und besseren Nutzung der GPU, um Kosten zu senken.
- Feature Store (technische Vorschau):Basierend auf dem Upstream-Projekt Kubeflow Feast bietet es ein zentralisiertes Repository für das Management und die Bereitstellung von Daten für Training und Inferenz, optimiert den Datenfluss und verbessert die Genauigkeit und Wiederverwendbarkeit der Modelle.
DERRed Hat Enterprise Linux KI 1.5Bringt neue Updates für die Red Hat Basismodellplattform, die auf die Entwicklung, das Testen und die Ausführung von groß angelegten Sprachmodellen (LLMs) ausgerichtet ist. Die wichtigsten Funktionen der Version 1.5 von RHEL AI umfassen:
- Verfügbarkeit im Google Cloud MarketplaceErweiterung der Kundenauswahl für den Betrieb von Red Hat Enterprise Linux AI in öffentlichen Clouds (neben AWS und Azure), um die Bereitstellung und Verwaltung von KI-Workloads in Google Cloud zu erleichtern.
- Erweiterte Fähigkeiten in mehreren Sprachenfür Spanisch, Deutsch, Französisch und Italienisch über InstructLab, ermöglicht die Personalisierung von Modellen mit nativen Skripten und erweitert die Möglichkeiten für mehrsprachige KI-Anwendungen. Die Benutzer können auch ihre eigenen "Lehrer"- und "Schüler"-Modelle verwenden, um eine bessere Kontrolle bei Personalisierung und Tests zu haben, mit zukünftiger Unterstützung für Japanisch, Hindi und Koreanisch.
DER Red Hat AI InstructLab auf IBM Cloud Jetzt ist es allgemein verfügbar. Dieser neue Cloud-Service vereinfacht den Prozess der Modellanpassung noch weiter, verbessert die Skalierbarkeit und die Benutzererfahrung. Unternehmen können ihre Daten effizienter und mit mehr Kontrolle nutzen.
Red Hat-Ansicht: jedes Modell, jeder Beschleuniger, jede Cloud
Die Zukunft der KI sollte durch unbegrenzte Möglichkeiten bestimmt werden und nicht durch Infrastruktursilos eingeschränkt sein. Red Hat sieht eine Zukunft, in der Organisationen jedes Modell, jeden Beschleuniger und jede Cloud implementieren können, um eine außergewöhnliche und konsistente Benutzererfahrung zu bieten, ohne exorbitante Kosten. Um die wahre Potenzial der Investitionen in generative KI freizusetzen, benötigen Unternehmen eine universelle Inferenzplattform — einen neuen Standard für kontinuierliche und hochleistungsfähige KI-Innovationen, sowohl in der Gegenwart als auch in den kommenden Jahren.
Red Hat Gipfel
Nehmen Sie an den Keynotes des Red Hat Summit teil, um die neuesten Neuigkeiten von Red Hat-Führungskräften, Kunden und Partnern zu hören:
- Moderne Infrastruktur im Einklang mit Unternehmens-KIDienstag, 20. Mai, 8:00–10:00 Uhr EDTYouTube)
- Die hybride Cloud entwickelt sich weiter, um die Unternehmensinnovation voranzutreibenMittwoch, 21. Mai, 8:00-9:30 Uhr EDTYouTube)