Red Hat hat gerade neue Updates für Red Hat AI veröffentlicht, Ihr Portfolio an Produkten und Dienstleistungen, die darauf ausgelegt sind, die Entwicklung und Implementierung von KI-Lösungen in der hybriden Cloud zu beschleunigen. Red Hat AI bietet eine Unternehmens-KI-Plattform für das Training von Modellen und Inferenz, mehr Erfahrung bieten, Flexibilität und eine vereinfachte Erfahrung zur Bereitstellung von Systemen überall in der hybriden Cloud
Auf der Suche nach der Reduzierung der Implementierungskosten großer Sprachmodelle (LLMS), um einer wachsenden Anzahl von Anwendungsfällen gerecht zu werden, Unternehmen stehen weiterhin vor der Herausforderung, diese Systeme mit ihren proprietären Daten zu integrieren und von überall darauf zuzugreifen: sei es in einem Rechenzentrum, in der öffentlichen Cloud oder sogar am Edge
Integration von sowohl Red Hat OpenShift AI als auch Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI reagiert auf diese Bedenken, indem es eine Unternehmens-KI-Plattform bereitstellt, die die Annahme effizienterer und optimierter Modelle ermöglicht, angepasst an die spezifischen Geschäftsdaten, mit der Möglichkeit, in einer hybriden Cloud implementiert zu werden, um Modelle in einer Vielzahl von Rechenarchitekturen zu trainieren
Für Joe Fernandes, Vizepräsident und Geschäftsführer der Geschäftseinheit für KI von Red Hat, Das Update ermöglicht es Organisationen, präzise und wirtschaftlich in ihren KI-Reisen zu sein. Red Hat weiß, dass Unternehmen Wege finden müssen, um die steigenden Kosten ihrer Implementierungen von generativer KI zu verwalten, während sie mehr Anwendungsfälle für die Produktion bringen und in großem Maßstab operieren.. Red Hat AI unterstützt Organisationen dabei, diese Herausforderungen anzugehen, indem sie über effizientere Modelle verfügen können, entwickelt für einen Zweck, trainiert mit Ihren Daten und die flexible Inferenz in On-Premises-Umgebungen ermöglichen, von der Cloud und am Edge.”
Red Hat OpenShift AI
Red Hat OpenShift AI bietet eine umfassende KI-Plattform zur Verwaltung der Lebenszyklen von prädiktiver und generativer KI (gen AI) in der hybriden Cloud, einschließlich Machine Learning-Operationen (MLOps) und Fähigkeiten von Large Language Model Operations (LLMOps). Die Plattform bietet Funktionen zum Erstellen von prädiktiven Modellen und zum Anpassen von KI-Modellen, gemeinsam mit Werkzeugen zur Vereinfachung des Managements von KI-Modellen, von Datenwissenschafts-Pipelines und Modellen bis hin zur Überwachung von Modellen, Governance und viel mehr.
Neueste Version der Plattform, Red Hat OpenShift AI 2.18, fügt neue Updates und Funktionen hinzu, um das Ziel von Red Hat AI zu unterstützen, optimierte und effizientere KI-Modelle für die hybride Cloud bereitzustellen. Die Hauptmerkmale umfassen
● Verteilte Dienstleistungverfügbar über den vLLM-Inferenzserver, Der verteilte Dienst ermöglicht es den IT-Teams, den Dienst von Modellen auf mehrere Grafikprozessoren (GPUs) aufzuteilen. Das hilft, die Last auf einem einzelnen Server zu verringern, beschleunigt das Training und das Fine-Tuning und fördert die effizientere Nutzung der Rechenressourcen, gleichzeitig hilft es, die Dienste zwischen den Knoten für die KI-Modelle zu verteilen
● Erfahrung mit End-to-End-ModellanpassungVerwendung von InstructLab und den Data Science-Pipelines von Red Hat OpenShift AI, dieses neue Feature hilft, das Fine-Tuning der LLMs zu vereinfachen, sie skalierbarer machen, effizient und auditierbar in großen Produktionsumgebungen, gleichzeitig Verwaltung über das Dashboard von Red Hat OpenShift AI bereitstellt
● KI-SchutzmaßnahmenRed Hat OpenShift KI 2.18 hilft, die Genauigkeit zu verbessern, die Leistung, die Latenz und die Transparenz der LLMs durch eine Vorschau auf die Technologie AI Guardrails, die die Eingaben des Benutzers und die Ausgaben des Modells überwacht und schützt. Die AI Guardrails bieten zusätzliche Erkennungsfunktionen, um IT-Teams zu unterstützen, potenziell hasserfüllte Äußerungen zu identifizieren und zu mindern, missbräuchlich oder obszön, personenbezogene Daten, Daten von Wettbewerbern oder anderen, die durch Unternehmensrichtlinien eingeschränkt sind
● ModellbewertungVerwendung der Komponente zur Bewertung von Sprachmodellen (lm-eval), um wichtige Informationen über die allgemeine Qualität des Modells bereitzustellen, Die Modellbewertung ermöglicht es Datenwissenschaftlern, die Leistung ihrer LLMs in verschiedenen Aufgaben zu vergleichen, von logischem und mathematischem Denken bis zur adversarialen natürlichen Sprache, hilft, effektivere KI-Modelle zu erstellen, responsiv und angepasst
RHEL KI
Teil des Red Hat AI-Portfolios, die RHEL AI ist eine Plattform für grundlegende Modelle zur Entwicklung, LLMs konsistenter testen und ausführen, mit dem Ziel, Unternehmensanwendungen voranzutreiben. Der RHEL AI bietet Granite LLM-Modelle und InstructLab-Modellanpassungswerkzeuge an, was sind Pakete in einem bootfähigen Image von Red Hat Enterprise Linux und können in der hybriden Cloud bereitgestellt werden
Veröffentlicht im Februar 2025, das RHEL 1.4 brachte verschiedene Verbesserungen, einschließlich
● Unterstützung für das Modell Granite 3.1 8Bals die neueste Ergänzung der Granite-Modellfamilie mit Open-Source-Lizenz. O modelo adiciona suporte multilíngue para inferência e personalização de taxonomia/conhecimento (pré-visualização para desenvolvedores), neben einem Kontextfenster von 128k zur Verbesserung der Annahme von Zusammenfassungsresultaten und Aufgaben der Retrieval-Augmented Generation (RAG)
● Neue grafische Benutzeroberfläche zur Förderung von Fähigkeiten und Vorwissen, verfügbar im Vorschauformat für Entwickler, mit dem Ziel, den Verbrauch und die Fragmentierung von Daten zu vereinfachen, sowie es Benutzern zu ermöglichen, ihre eigenen Fähigkeiten und Beiträge zu KI-Modellen hinzuzufügen
● Dokumenten-Wissen-Bench (DK-Bench)um den Vergleich zwischen KI-Modellen, die mit relevanten privaten Daten angepasst wurden, und der Leistung derselben nicht angepassten Basis-Modelle zu erleichtern
Red Hat AI InstructLab auf IBM Cloud
Immer mehr, Die Unternehmen suchen nach KI-Lösungen, die die Genauigkeit und Sicherheit ihrer Daten priorisieren, gleichzeitig die Kosten und die Komplexität so niedrig wie möglich halten. Das Red Hat AI InstructLab, verfügbar als Dienst in der IBM Cloud, wurde entworfen, um zu vereinfachen, skalieren und helfen, die Sicherheit beim Training und der Implementierung von KI-Systemen zu verbessern. Bei der Vereinfachung der Anpassung von Modellen im InstructLab, Organisationen können effizientere Plattformen aufbauen, angepasst an Ihre einzigartigen Bedürfnisse, die Kontrolle über Ihre vertraulichen Informationen behalten.
Kostenloses Training zu den Grundlagen der KI
KI ist eine transformative Gelegenheit, die neu definiert, wie Unternehmen operieren und konkurrieren. Um Organisationen in diesem dynamischen Umfeld zu unterstützen, Red Hat bietet kostenlose Online-Schulungen zu den Grundlagen der KI an. Das Unternehmen bietet zwei Zertifikate für das Lernen in KI an, gerichtet sowohl an erfahrene Führungskräfte als auch an Anfänger, hilft, Benutzer aller Ebenen darüber aufzuklären, wie KI dazu beitragen kann, Geschäftsabläufe zu transformieren, die Entscheidungsfindung beschleunigen und Innovation vorantreiben
Verfügbarkeit
Red Hat OpenShift AI 2.18 und Red Hat Enterprise Linux AI 1.4 sind bereits verfügbar. Weitere Informationen zu zusätzlichen Ressourcen, Verbesserungen, Fehlerbehebungen und Informationen zur Aktualisierung Ihrer Version von Red Hat OpenShift AI auf die neueste Version finden SieHier,und die neueste Version von RHEL AI kann gefunden werdenHier.
Das Red Hat AI InstructLab wird bald in der IBM Cloud verfügbar sein. Das Training zu den Grundlagen der KI von Red Hat ist jetzt für Kunden verfügbar