Red Hat hat kürzlich neue Updates für Red Hat AI veröffentlicht, sein Portfolio an Produkten und Dienstleistungen, das entwickelt wurde, um die Entwicklung und Implementierung von KI-Lösungen in der Hybrid-Cloud zu beschleunigen. Red Hat AI bietet eine Unternehmens-KI-Plattform für Modelltraining und Inferenz, die mehr Erfahrung, Flexibilität und eine vereinfachte Benutzererfahrung bei der Bereitstellung von Systemen überall in der hybriden Cloud ermöglicht.
Auf der Suche nach der Reduzierung der Implementierungskosten großer Sprachmodelle (LLMs) zur Bewältigung einer wachsenden Anzahl von Anwendungsfällen stehen Unternehmen weiterhin vor der Herausforderung, diese Systeme in ihre proprietären Daten zu integrieren und von überall aus darauf zuzugreifen: sei es in einem Rechenzentrum, in der öffentlichen Cloud oder sogar an der Edge.
Durch die Integration von Red Hat OpenShift AI und Red Hat Enterprise Linux AI (RHEL AI) reagiert Red Hat AI auf diese Bedenken, indem es eine Unternehmens-KI-Plattform bereitstellt, die die Einführung effizienterer und optimierter Modelle ermöglicht, die auf spezifische Geschäftsdaten abgestimmt sind und in hybriden Cloud-Umgebungen bereitgestellt werden können, um Modelle in einer Vielzahl von Rechenarchitekturen zu trainieren.
Für Joe Fernandes, Vicepräsident und General Manager der AI Business Unit bei Red Hat, ermöglicht das Update den Organisationen, in ihren KI-Reisen präzise und kosteneffizient zu sein. Red Hat weiß, dass Unternehmen Wege benötigen werden, um die steigenden Kosten ihrer generativen KI-Implementierungen zu verwalten, während sie mehr Anwendungsfälle in Produktion bringen und in großem Maßstab operieren. Red Hat AI unterstützt Organisationen dabei, diese Herausforderungen anzugehen, indem es ihnen ermöglicht, effizientere Modelle bereitzustellen, die für einen bestimmten Zweck entwickelt, mit ihren Daten trainiert sind und flexible Inferenz in On-Premises-, Cloud- und Edge-Umgebungen ermöglichen.
Red Hat OpenShift AI
Red Hat OpenShift AI bietet eine umfassende KI-Plattform zur Verwaltung der Lebenszyklen von prädiktiver und generativer KI (Gen AI) in der Hybrid-Cloud, einschließlich Machine Learning Operations (MLOps) und Fähigkeiten für Large Language Model Operations (LLMOps). Die Plattform bietet Funktionen zum Erstellen prädiktiver Modelle und zum Anpassen von generativen KI-Modellen sowie Werkzeuge zur Vereinfachung des Managements von KI-Modellen, von Data-Science-Pipelines und Modellen bis hin zur Überwachung, Governance und vielem mehr.
Die neueste Version der Plattform, Red Hat OpenShift AI 2.18, fügt neue Aktualisierungen und Funktionen hinzu, um das Ziel von Red Hat AI zu unterstützen, optimierte und effiziente KI-Modelle für die Hybrid-Cloud bereitzustellen. Die Hauptmerkmale umfassen
● Verteilte DienstleistungVerfügbar über den vLLM-Inferenzserver ermöglicht der verteilte Dienst IT-Teams, den Modellservice auf mehrere Grafikkarten (GPUs) zu verteilen. Dies hilft, die Last auf einem einzelnen Server zu verringern, beschleunigt das Training und die Feinabstimmung und fördert die effizientere Nutzung der Rechenressourcen, während es gleichzeitig hilft, die Dienste auf die Knoten für KI-Modelle zu verteilen.
● Erfahrung mit End-to-End-ModellanpassungDurch die Verwendung von InstructLab und den Data-Science-Pipelines von Red Hat OpenShift AI vereinfacht diese neue Funktion die Feinabstimmung von LLMs, macht sie skalierbarer, effizienter und auditierbarer in großen Produktionsumgebungen und bietet gleichzeitig Verwaltung über das Red Hat OpenShift AI-Dashboard.
● KI-SchutzmaßnahmenRed Hat OpenShift AI 2.18 verbessert die Genauigkeit, Leistung, Latenz und Transparenz von LLMs durch eine Vorschau der AI Guardrails-Technologie, die die Eingabedaten der Benutzerinteraktionen überwacht und schützt sowie die Ausgaben des Modells. Der AI Guardrails bietet zusätzliche Erkennungsfunktionen, um IT-Teams bei der Identifizierung und Eindämmung potenziell hasserfüllter, missbräuchlicher oder obszöner Äußerungen, persönlich identifizierbarer Informationen, Wettbewerberdaten oder anderer durch Unternehmensrichtlinien eingeschränkter Informationen zu unterstützen.
● ModellbewertungDurch die Verwendung des Sprachmodell-Bewertungskomponenten (lm-eval) zur Bereitstellung wichtiger Informationen über die Gesamtqualität des Modells ermöglicht die Modellbewertung Data Scientists, die Leistung ihrer LLMs bei verschiedenen Aufgaben zu vergleichen, von logischem und mathematischem Denken bis hin zu adversarialer natürlicher Sprache, und so effektivere, reaktionsfähigere und angepasste KI-Modelle zu entwickeln.
RHEL KI
Teil des Red Hat AI-Portfolios, ist RHEL AI eine Plattform für Grundmodelle, um LLMs konsistenter zu entwickeln, zu testen und auszuführen, mit dem Ziel, Unternehmensanwendungen voranzutreiben. Der RHEL AI bietet Granite LLM-Modelle und InstructLab-Modellabgleichstools, die in einem startfähigen Red Hat Enterprise Linux-Image enthalten sind und in der Hybrid-Cloud bereitgestellt werden können.
Veröffentlicht im Februar 2025, brachte RHEL 1.4 zahlreiche Verbesserungen mit sich, darunter:
● Unterstützung für das Modell Granite 3.1 8Bcomo a mais recente adição à família de modelos Granite com licença de código aberto. Das Modell fügt mehrsprachige Unterstützung für Inferenz und Personalisierung von Taxonomien/Wissen hinzu (Vorschau für Entwickler) sowie ein Kontextfenster von 128k, um die Nutzung von Zusammenfassungsergebnissen und Retrieval-Augmented Generation (RAG)-Aufgaben zu verbessern.
● Neue grafische Benutzeroberfläche zur Förderung von Fähigkeiten und Vorwissen, im Vorschauformat für Entwickler verfügbar, um die Nutzung und Fragmentierung von Daten zu vereinfachen sowie Nutzern zu ermöglichen, ihre eigenen Fähigkeiten und Beiträge zu KI-Modellen hinzuzufügen.
● Dokumenten-Wissen-Bench (DK-Bench)um die Vergleichbarkeit zwischen feinabgestimmten KI-Modellen mit relevanten privaten Daten und der Leistung derselben unfeinabgestimmten Basismodelle zu erleichtern
Red Hat AI InstructLab auf IBM Cloud
Immer mehr Unternehmen suchen nach KI-Lösungen, die die Genauigkeit und Sicherheit ihrer Daten priorisieren, während sie gleichzeitig die Kosten und die Komplexität so gering wie möglich halten. Das Red Hat AI InstructLab, das als Dienst auf IBM Cloud verfügbar ist, wurde entwickelt, um die Vereinfachung, Skalierung und Verbesserung der Sicherheit bei der Schulung und Implementierung von KI-Systemen zu erleichtern. Durch die Vereinfachung der Modellanpassung bei InstructLab können Organisationen effizientere Plattformen entwickeln, die auf ihre einzigartigen Bedürfnisse zugeschnitten sind, während sie die Kontrolle über ihre vertraulichen Informationen behalten.
Kostenloses Training zu den Grundlagen der KI
KI ist eine transformative Chance, die neu definiert, wie Unternehmen operieren und konkurrieren. Um die Organisationen in diesem dynamischen Umfeld zu unterstützen, bietet Red Hat kostenlose Online-Schulungen zu den Grundlagen der KI an. Das Unternehmen bietet zwei Zertifikate im Bereich KI-Lernen an, die sowohl für erfahrene Führungskräfte als auch für Anfänger konzipiert sind, um Nutzer aller Niveaus darüber zu informieren, wie KI dabei helfen kann, Geschäftsprozesse zu transformieren, die Entscheidungsfindung zu beschleunigen und Innovationen voranzutreiben.
Verfügbarkeit
Red Hat OpenShift AI 2.18 und Red Hat Enterprise Linux AI 1.4 sind bereits verfügbar. Weitere Informationen zu zusätzlichen Funktionen, Verbesserungen, Fehlerbehebungen und wie Sie Ihre Red Hat OpenShift AI-Version auf die neueste aktualisieren können, finden Sie hierHierund die neueste Version von RHEL AI ist verfügbarHier.
Das Red Hat AI InstructLab in der IBM Cloud wird bald verfügbar sein. Das Red Hat KI-Grundlagen-Training ist jetzt für Kunden verfügbar.