Dois grandes players da transformação aberta da inteligência artificial acabam de anunciar a extensão da colaboração para impulsionar a IA. O avanço da parceria entre Red Hat e Google Cloud têm como foco ampliar o rol de aplicações empresariais para IA, unindo as tecnologias de código aberto da líder de open source com a infraestrutura especializada do Google e sua família de modelos, o Gemma.
Juntas, as empresas vão avançar em casos de uso para escalonamento da IA por meio de:
- Lançamento do projeto open source llm-d, com o Google como colaborador fundador;
- Suporte ao vLLM em TPUs do Google Cloud e máquinas virtuais (VMs) com GPU para aprimorar a inferência de IA;
- Suporte no dia zero ao vLLM com as distribuições do modelo Gemma 3;
- Disponibilidade do Red Hat AI Inference Server no Google Cloud;
- Desenvolvimento de IA agentic com a Red Hat como colaboradora no protocolo Agent2Agent (A2A) do Google.
Reforçando a inferência de IA com o vLLM
Demonstrando seu compromisso com a prontidão desde o dia zero, a Red Hat agora é uma das primeiras testadoras da família de modelos abertos do Google, Gemma, começando pelo Gemma 3, com suporte imediato ao vLLM. vLLM é um servidor de inferência open source que acelera a execução de aplicações de IA generativa. Como principal colaboradora comercial do vLLM, a Red Hat está tornando essa plataforma mais eficiente e responsiva para aplicações de gen IA.
Além disso, os TPUs do Google Cloud, aceleradores de IA de alto desempenho que integram o portfólio de IA do Google, agora estão totalmente compatíveis com o vLLM. Essa integração permite que os desenvolvedores maximizem os recursos enquanto obtêm o desempenho e a eficiência essenciais para inferência rápida e precisa.
Reconhecendo a transição da pesquisa em IA para a implantação no mundo real, muitas organizações enfrentam as complexidades de um ecossistema de IA diversificado e a necessidade de adotar estratégias de computação mais distribuídas. Para atender a essa demanda, a Red Hat lançou o projeto open source llm-d, com o Google como colaborador fundador. Aproveitando o impulso da comunidade do vLLM, essa iniciativa visa inaugurar uma nova era para inferência de gen AI. O objetivo é permitir maior escalabilidade em recursos heterogêneos, otimizar os custos e aumentar a eficiência das cargas de trabalho — tudo isso enquanto se promove a inovação contínua.
Impulsionando a IA empresarial com inovação baseada na comunidade
Trazendo os avanços mais recentes da comunidade open source para o ambiente empresarial, o Red Hat AI Inference Server agora está disponível no Google Cloud. Tal qual a distribuição empresarial do vLLM pela Red Hat, o AI Inference Server ajuda as empresas a otimizar a inferência de modelos em todo o seu ambiente de nuvem híbrida. Utilizando a infraestrutura confiável do Google Cloud, as organizações podem implantar modelos de IA generativa prontos para produção, que são ao mesmo tempo altamente responsivos e econômicos em escala.
Destacando o compromisso conjunto com uma IA aberta, a Red Hat também passou a contribuir com o protocolo Agent2Agent (A2A) do Google — um protocolo em nível de aplicação que facilita a comunicação entre agentes e usuários finais em plataformas e nuvens diversas. Ao participar ativamente do A2A ecossistema, a Red Hat busca acelerar a inovação e garantir que os fluxos de trabalho de IA permaneçam dinâmicos e eficazes com o poder da Agentic AI.
Red Hat Summit
Assista as keynotes do Red Hat Summit para escutar as últimas novidades de executivos, clientes e parceiros da Red Hat:
- Infraestrutura moderna alinhada à IA empresarial —Terça-feira, 20 de maio, 8h -10h EDT (YouTube)
- A nuvem híbrida evolui para impulsionar a inovação empresarial — Quarta-feira, 21 de maio, 8h-9h30 EDT (YouTube)