Nouvelles mises à jour dans l'ensemble du portefeuille d'IA de Red Hat favorisent de grandes transformations dans le secteur des entreprises. Grâce à Red Hat AI, l'entreprise cherche à renforcer encore davantage les capacités nécessaires pour accélérer l'adoption de la technologie, en offrant plus de liberté et de confiance aux clients dans la mise en œuvre de l'IA générative (gen AI) dans des environnements cloud hybrides. Depuis le lancement du Red Hat AI Inference Server, des modèles validés par des tiers sur Red Hat AI, et l'intégration avec les API Llama Stack et le Model Context Protocol (MCP), l'entreprise se repositionne sur le marché pour diverses modalités d'intelligence artificielle.
Selon Forrester, le logiciel open source sera le moteur pour accélérer les efforts d'IA d'entreprise. À mesure que le paysage de l'IA devient plus complexe et dynamique, leServeur d'inférence Red Hat AIet les modèles validés par des tiers offrent une inférence efficace et une collection testée de modèles d'IA optimisés pour la performance sur la plateforme Red Hat AI. Avec l'intégration de nouvelles API pour le développement d'agents d'IA générative, comprenant Llama Stack et MCP, Red Hat travaille à simplifier la complexité du déploiement, en permettant aux responsables IT, aux data scientists et aux développeurs de faire progresser leurs initiatives en IA avec plus de contrôle et d'efficacité.
Inférence efficace dans le cloud hybride avec Red Hat AI Inference Server
Le portefeuille Red Hat AI inclut la nouveautéServeur d'inférence Red Hat AI, disposant d'une inférence plus rapide, cohérente et économique à l'échelle, dans des environnements de cloud hybride. Cette addition est intégrée aux versions les plus récentes de Red Hat OpenShift AI et de Red Hat Enterprise Linux AI, et est également disponible en tant que solution indépendante, permettant aux organisations de déployer des applications intelligentes avec plus d'efficacité, de flexibilité et de performance.
Modèles testés et optimisés avec Red Hat AI et validation par des tiers
Les modèles validés par des tiers de Red Hat AIdisponibles surHugging Facefacilitent le choix des entreprises au moment de trouver les modèles adaptés à leurs besoins. Red Hat AI offre une collection de modèles validés, ainsi que des directives de déploiement qui renforcent la confiance des clients dans la performance des modèles et la reproductibilité des résultats. Les modèles sélectionnés sont également optimisés par Red Hat, avec des techniques de compression de modèle qui réduisent leur taille et augmentent la vitesse d'inférence, contribuant à minimiser la consommation de ressources et les coûts opérationnels. De plus, le processus continu de validation des modèles aide les clients de Red Hat AI à rester à la pointe de l'innovation en IA générative.
APIs standardisées pour le développement d'applications et d'agents d'IA avec Llama Stack et MCP
Red Hat AI est en train d'intégrer lePile de Llamasinitialement développé par Meta, ainsi que leMCPd'Anthropic, pour fournir des API standardisées pour la construction et le déploiement d'applications et d'agents d'IA. Actuellement disponible en version bêta pour les développeurs sur Red Hat AI, le Llama Stack offre une API unifiée pour l'accès à l'inférence avec vLLM, la génération augmentée par récupération (RAG), l'évaluation des modèles,barreaux de sécuritéet agents, dans tout modèle d'IA générative. Le MCP permet aux modèles de s'intégrer à des outils externes, en fournissant une interface standardisée pour la connexion aux API, plugins et sources de données dans les flux de travail des agents.
La dernière version duRed Hat OpenShift AI (v2.20)) offre des améliorations supplémentaires pour construire, entraîner, déployer et surveiller des modèles d'IA générative et prédictive à grande échelle. Les points forts incluent :
- Catalogue de modèles optimisé (prévisualisation technique)Accès facilité à des modèles validés de Red Hat et de tiers, avec déploiement via console web et gestion complète du cycle de vie avec enregistrement intégré d'OpenShift.
- Formation distribuée avec KubeFlow Training Operatorexécution des ajustements de modèle avec InstructLab et charges de travail PyTorch distribuées sur plusieurs nœuds et GPU de Red Hat OpenShift, avec un réseau RDMA distribué pour l'accélération et une meilleure utilisation du GPU, afin de réduire les coûts.
- Stock de fonctionnalités (brouillon technique) :basé sur le projet upstream Kubeflow Feast, offre un référentiel centralisé pour la gestion et la fourniture de données pour l'entraînement et l'inférence, optimisant le flux de données et améliorant la précision et la réutilisabilité des modèles.
ORed Hat Enterprise Linux IA 1.5apporte de nouvelles mises à jour pour la plateforme de modèles de base de Red Hat, dédiée au développement, aux tests et à l'exécution de modèles de langage de grande envergure (LLMs). Les principales fonctionnalités de la version 1.5 de RHEL AI incluent :
- Disponibilité sur Google Cloud Marketplace,élargissant le choix des clients pour exécuter Red Hat Enterprise Linux AI sur des clouds publics (au-delà d'AWS et Azure), facilitant le déploiement et la gestion des charges de travail d'IA sur Google Cloud.
- Capacités améliorées en plusieurs languespour l'espagnol, l'allemand, le français et l'italien via InstructLab, permettant la personnalisation des modèles avec des scripts natifs et élargissant les possibilités d'applications d'IA multilingues. Les utilisateurs peuvent également utiliser leurs propres modèles « enseignant » et « étudiant » pour un contrôle accru en personnalisation et en tests, avec un support futur prévu pour le japonais, l'hindi et le coréen.
O Red Hat AI InstructLab sur IBM Cloud maintenant, il y a une disponibilité générale. Ce nouveau service cloud simplifie encore davantage le processus de personnalisation des modèles, améliorant la scalabilité et l'expérience utilisateur. Les entreprises peuvent utiliser leurs données de manière plus efficace et avec un meilleur contrôle.
Vision de Red Hat : n'importe quel modèle, n'importe quel accélérateur, n'importe quel cloud
L'avenir de l'IA doit être défini par des opportunités illimitées et non limité par des silos d'infrastructure. Red Hat envisage un horizon où les organisations pourront déployer n'importe quel modèle, sur n'importe quel accélérateur, dans n'importe quel cloud, offrant une expérience utilisateur exceptionnelle et plus cohérente, sans coûts exorbitants. Pour débloquer le véritable potentiel des investissements en IA générative, les entreprises ont besoin d'une plateforme universelle d'inférence — une nouvelle norme pour des innovations continues et performantes en IA, tant dans le présent que dans les années à venir.
Sommet Red Hat
Participez aux conférences principales du Red Hat Summit pour entendre les dernières nouveautés des dirigeants, clients et partenaires de Red Hat :
- Infrastructure moderne alignée avec l'IA d'entreprise— Mardi 20 mai, 8h-10h EDTYouTube)
- Le cloud hybride évolue pour stimuler l'innovation en entreprise— Mercredi 21 mai, 8h-9h30 EDTYouTube)