Red Hat acaba de lanzar nuevas actualizaciones en Red Hat AI, su portafolio de productos y servicios diseñados para acelerar el desarrollo y la implementación de soluciones de IA en la nube híbrida. Red Hat AI ofrece una plataforma de IA empresarial para entrenamiento de modelos e inferencia, proporcionando más experiencia, flexibilidad y una experiencia simplificada para desplegar sistemas en cualquier lugar en la nube híbrida.
En la búsqueda de reducir los costos de implementación de grandes modelos de lenguaje (LLMS) para atender a un número creciente de casos de uso, las empresas aún enfrentan el desafío de integrar estos sistemas con sus datos propietarios y acceder a ellos desde cualquier lugar: ya sea en un centro de datos, en la nube pública o incluso en el edge.
Integrando tanto Red Hat OpenShift AI como Red Hat Enterprise Linux AI (RHEL AI), Red Hat AI responde a estas preocupaciones al proporcionar una plataforma de IA empresarial que permite adoptar modelos más eficientes y optimizados, ajustados con los datos específicos del negocio, con la posibilidad de ser implementados en la nube híbrida para entrenar modelos en una amplia gama de arquitecturas de computación.
Para Joe Fernandes, vicepresidente y gerente general de la Unidad de Negocios de IA de Red Hat, la actualización permite que las organizaciones sean precisas y económicas en sus jornadas de IA. Red Hat sabe que las empresas necesitarán formas de gestionar el creciente costo de sus implementaciones de IA generativa, a medida que llevan más casos de uso a producción y operan a escala. Red Hat AI ayuda a las organizaciones a abordar estos desafíos, permitiéndoles disponer de modelos más eficientes, desarrollados con un propósito, entrenados con sus datos y que posibilitan inferencias flexibles en entornos locales, en la nube y en el edge.
Red Hat OpenShift AI
Red Hat OpenShift AI ofrece una plataforma completa de IA para gestionar los ciclos de vida de IA predictiva y generativa (gen AI) en la nube híbrida, incluyendo operaciones de aprendizaje automático (MLOps) y capacidades de operaciones de modelos de lenguaje grande (LLMOps). La plataforma ofrece funcionalidades para construir modelos predictivos y ajustar modelos de IA generativa, junto con herramientas para simplificar la gestión de modelos de IA, desde pipelines de ciencia de datos y modelos hasta la supervisión de modelos, gobernanza y mucho más.
La versión más reciente de la plataforma, Red Hat OpenShift AI 2.18, añade nuevas actualizaciones y capacidades para apoyar el objetivo de Red Hat AI de ofrecer modelos de IA más optimizados y eficientes para la nube híbrida. Los principales recursos incluyen
● Servicio distribuidodisponible a través del servidor de inferencia vLLM, el servicio distribuido permite que los equipos de TI dividan el servicio de modelos entre varias unidades de procesamiento gráfico (GPUs). Esto ayuda a aliviar la carga en un solo servidor, acelera el entrenamiento y el ajuste fino, y promueve un uso más eficiente de los recursos informáticos, al mismo tiempo que ayuda a distribuir los servicios entre los nodos para los modelos de IA.
● Experiencia de ajuste de modelo de punta a puntausando InstructLab y los pipelines de ciencia de datos de Red Hat OpenShift AI, este nuevo recurso ayuda a simplificar el ajuste fino de los LLMs, haciéndolos más escalables, eficientes y auditables en grandes entornos de producción, al mismo tiempo que proporciona gestión a través del panel de control de Red Hat OpenShift AI.
● Barras de protección de IARed Hat OpenShift AI 2.18 ayuda a mejorar la precisión, el rendimiento, la latencia y la transparencia de los LLMs mediante una vista previa de la tecnología AI Guardrails, que monitorea y protege las interacciones de entrada del usuario y las salidas del modelo. El AI Guardrails ofrece funciones adicionales de detección para ayudar a los equipos de TI a identificar y mitigar discursos potencialmente odiosos, abusivos o profanos, información personal identificable, datos de competidores u otros restringidos por políticas corporativas.
● Evaluación de modelo: utilizando o componente de avaliação de modelos de linguagem (lm-eval) para fornecer informações importantes sobre a qualidade geral do modelo, a avaliação de modelos permite que os cientistas de dados comparem o desempenho de seus LLMs em várias tarefas, desde raciocínio lógico e matemático até linguagem natural adversarial, ajudando a criar modelos de IA mais eficazes, responsivos e adaptados.
RHEL IA
Parte del portafolio de Red Hat AI, el RHEL AI es una plataforma de modelos fundamentales para desarrollar, probar y ejecutar LLMs de manera más consistente, con el objetivo de impulsar aplicaciones empresariales. El RHEL AI ofrece modelos Granite LLMs y herramientas de alineación de modelos InstructLab, que son paquetes en una imagen inicializable de Red Hat Enterprise Linux y pueden implementarse en la nube híbrida.
Lanzado en febrero de 2025, el RHEL 1.4 trajo varias mejoras, incluyendo:
● Soporte para el modelo Granite 3.1 8Bcomo la adición más reciente a la familia de modelos Granite con licencia de código abierto. El modelo añade soporte multilingüe para inferencia y personalización de taxonomía/conocimiento (vista previa para desarrolladores), además de una ventana de contexto de 128k para mejorar la adopción de resultados de resumen y tareas de Generación Aumentada por Recuperación (RAG).
● Nueva interfaz gráfica de usuario para contribuir con habilidades y conocimientos previosdisponible en formato de vista previa para desarrolladores, con el objetivo de simplificar el consumo y la fragmentación de datos, así como permitir que los usuarios añadan sus propias habilidades y contribuciones a modelos de IA.
● Banco de Conhecimento de Documentos (DK-bench)para facilitar comparaciones entre modelos de IA ajustados con datos privados relevantes con el rendimiento de los mismos modelos base no ajustados.
Red Hat AI InstructLab en IBM Cloud
Cada vez más, las empresas buscan soluciones de IA que prioricen la precisión y la seguridad de sus datos, al mismo tiempo que mantienen los costos y la complejidad lo más bajos posible. El Red Hat AI InstructLab, disponible como un servicio en IBM Cloud, fue diseñado para simplificar, escalar y ayudar a mejorar la seguridad en el entrenamiento y despliegue de sistemas de IA. Al simplificar el ajuste de modelos de InstructLab, las organizaciones pueden construir plataformas más eficientes, adaptadas a sus necesidades únicas, manteniendo el control de su información confidencial.
Entrenamiento gratuito sobre los Fundamentos de la IA
La IA es una oportunidad transformadora que está redefiniendo cómo las empresas operan y compiten. Para apoyar a organizaciones en este escenario dinámico, Red Hat ofrece capacitaciones en línea gratuitas sobre Fundamentos de IA. La empresa está ofreciendo dos certificados de aprendizaje en IA, dirigidos tanto a líderes senior experimentados como a principiantes, ayudando a educar a usuarios de todos los niveles sobre cómo la IA puede ayudar a transformar las operaciones comerciales, agilizar la toma de decisiones y impulsar la innovación.
Disponibilidad
Red Hat OpenShift AI 2.18 y Red Hat Enterprise Linux AI 1.4 ya están disponibles. Más información sobre recursos adicionales, mejoras, correcciones de errores y cómo actualizar su versión de Red Hat OpenShift AI a la más reciente se puede encontraraquíy la versión más reciente de RHEL AI se puede encontraraquí.
El Red Hat AI InstructLab en IBM Cloud estará disponible pronto. La capacitación sobre los Fundamentos de IA de Red Hat ya está disponible para los clientes.