Red Hat vient de lancer de nouvelles mises à jour de Red Hat AI, son portefeuille de produits et services conçus pour accélérer le développement et le déploiement de solutions d'IA dans le cloud hybride. Red Hat AI offre une plateforme d'IA d'entreprise pour la formation de modèles et l'inférence, offrant plus d'expérience, de flexibilité et une expérience simplifiée pour déployer des systèmes partout dans le cloud hybride.
Dans la quête de réduire les coûts de mise en œuvre de grands modèles de langage (LLMS) pour répondre à un nombre croissant de cas d'utilisation, les entreprises sont toujours confrontées au défi d'intégrer ces systèmes avec leurs données propriétaires et d'y accéder de n'importe où : que ce soit dans un centre de données, dans le cloud public ou même à la périphérie.
En intégrant à la fois Red Hat OpenShift AI et Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI répond à ces préoccupations en fournissant une plateforme d'IA d'entreprise qui permet d'adopter des modèles plus efficaces et optimisés, ajustés avec les données spécifiques à l'entreprise, avec la possibilité de les déployer dans un environnement hybride pour entraîner des modèles sur une large gamme d'architectures informatiques.
Pour Joe Fernandes, vice-président et directeur général de l'Unité d'Affaires IA de Red Hat, la mise à jour permet aux organisations d'être précises et économiques dans leurs parcours en IA. « Red Hat sait que les entreprises auront besoin de moyens pour gérer le coût croissant de leurs déploiements d'IA générative, à mesure qu'elles introduisent plus de cas d'utilisation en production et opèrent à grande échelle. Red Hat AI aide les organisations à relever ces défis, leur permettant de disposer de modèles plus efficaces, conçus pour un objectif, entraînés avec leurs données et permettant une inférence flexible en environnements sur site, cloud et edge. »
Red Hat OpenShift AI
Red Hat OpenShift AI offre une plateforme complète d'IA pour gérer les cycles de vie de l'IA prédictive et générative (gen AI) dans le cloud hybride, y compris les opérations d'apprentissage automatique (MLOps) et les capacités de gestion des grands modèles de langage (LLMOps). La plateforme offre des fonctionnalités pour construire des modèles prédictifs et ajuster des modèles d'IA générative, ainsi que des outils pour simplifier la gestion des modèles d'IA, depuis les pipelines de science des données et les modèles jusqu'à la surveillance des modèles, la gouvernance et bien plus encore.
La version la plus récente de la plateforme, Red Hat OpenShift AI 2.18, ajoute de nouvelles mises à jour et capacités pour soutenir l'objectif de Red Hat AI d'apporter des modèles d'IA plus optimisés et efficaces au cloud hybride. Les principales caractéristiques incluent
● Service distribuéDisponible via le serveur d'inférence vLLM, le service distribué permet aux équipes IT de répartir le service de modèles entre plusieurs unités de traitement graphique (GPU). Cela aide à alléger la charge sur un seul serveur, accélère la formation et l'ajustement fin, et favorise une utilisation plus efficace des ressources informatiques, tout en aidant à répartir les services entre les nœuds pour les modèles d'IA.
● Expérience d'ajustement de modèle de bout en boutEn utilisant InstructLab et les pipelines de science des données de Red Hat OpenShift AI, cette nouvelle fonctionnalité facilite le fine-tuning des LLMs, les rendant plus évolutifs, efficaces et auditable dans de grands environnements de production, tout en offrant une gestion via le tableau de bord de Red Hat OpenShift AI.
● Garde-fous de l'IARed Hat OpenShift AI 2.18 aide à améliorer la précision, la performance, la latence et la transparence des LLMs grâce à un aperçu de la technologie AI Guardrails, qui surveille et protège les interactions d'entrée de l'utilisateur et les sorties du modèle. O AI Guardrails oferece recursos adicionais de detecção para ajudar as equipes de TI a identificar e mitigar discursos potencialmente odiosos, abusivos ou profanos, informações pessoais identificáveis, dados de concorrentes ou outros restritos por políticas corporativas.
● Évaluation de modèleEn utilisant le composant d'évaluation du modèle de langage (lm-eval) pour fournir des informations importantes sur la qualité globale du modèle, l'évaluation du modèle permet aux data scientists de comparer les performances de leurs LLMs sur diverses tâches, allant du raisonnement logique et mathématique au langage naturel adversarial, contribuant à créer des modèles d'IA plus efficaces, réactifs et adaptés.
RHEL IA
Faisant partie du portefeuille Red Hat AI, le RHEL AI est une plateforme de modèles fondamentaux pour développer, tester et exécuter des LLMs de manière plus cohérente, dans le but de stimuler les applications d'entreprise. O RHEL AI oferece modelos Granite LLMs e ferramentas de alinhamento de modelos InstructLab, que são pacotes em uma imagem inicializável do Red Hat Enterprise Linux e podem ser implantados na nuvem híbrida.
Lancé en février 2025, le RHEL 1.4 a apporté plusieurs améliorations, notamment :
● Support du modèle Granite 3.1 8Bcomme la dernière addition à la famille de modèles Granite sous licence open source. Le modèle ajoute une prise en charge multilingue pour l'inférence et la personnalisation de la taxonomie/connaissance (aperçu pour les développeurs), ainsi qu'une fenêtre de contexte de 128k pour améliorer l'adoption des résultats de résumé et des tâches de Retrieval-Augmented Generation (RAG).
● Nouvelle interface graphique utilisateur pour contribuer avec des compétences et des connaissances antérieures, disponible au format de pré-visualisation pour les développeurs, dans le but de simplifier la consommation et la fragmentation des données, ainsi que de permettre aux utilisateurs d'ajouter leurs propres compétences et contributions aux modèles d'IA.
● Document Knowledge-bench (DK-bench)pour faciliter la comparaison entre des modèles d'IA ajustés avec des données privées pertinentes et la performance des mêmes modèles de base non ajustés.
Red Hat AI InstructLab sur IBM Cloud
De plus en plus, les entreprises recherchent des solutions d'IA qui privilégient la précision et la sécurité de leurs données, tout en maintenant les coûts et la complexité aussi faibles que possible. Le Red Hat AI InstructLab, disponible en tant que service sur IBM Cloud, a été conçu pour simplifier, faire évoluer et aider à améliorer la sécurité lors de la formation et du déploiement de systèmes d'IA. En simplifiant l'ajustement des modèles d'InstructLab, les organisations peuvent construire des plateformes plus efficaces, adaptées à leurs besoins uniques, tout en conservant le contrôle de leurs informations confidentielles.
Formation gratuite sur les Fondamentaux de l'IA
L'IA est une opportunité transformative qui redéfinit la façon dont les entreprises opèrent et rivalisent. Pour soutenir les organisations dans ce contexte dynamique, Red Hat propose des formations en ligne gratuites sur les Fondamentaux de l'IA. L'entreprise propose deux certificats d'apprentissage en IA, destinés aussi bien aux dirigeants seniors expérimentés qu'aux débutants, aidant à éduquer les utilisateurs de tous niveaux sur la façon dont l'IA peut aider à transformer les opérations commerciales, accélérer la prise de décision et stimuler l'innovation.
Disponibilité
Red Hat OpenShift AI 2.18 et Red Hat Enterprise Linux AI 1.4 sont déjà disponibles. Plus d'informations sur les fonctionnalités supplémentaires, les améliorations, les corrections de bugs et la manière de mettre à jour votre version de Red Hat OpenShift AI vers la plus récente peuvent être trouvéesiciet la version la plus récente de RHEL AI peut être trouvéeici.
O Red Hat AI InstructLab sur IBM Cloud sera disponible bientôt. La formation sur les Fondamentaux de l'IA de Red Hat est désormais disponible pour les clients.