两大 领军企业 近日宣布扩展在人工智能开放转型领域的合作。Red Hat与Google Cloud的深度合作聚焦于拓宽企业级AI应用场景,将这家开源领导者的开放技术与Google专用基础设施及其Gemma模型系列相结合。.
双方将通过以下举措共同推进AI规模化应用场景:
- 启动开源项目llm-d,Google作为创始贡献方参与;;
- 在Google Cloud TPU及GPU虚拟机上支持vLLM以增强AI推理能力;;
- 为Gemma 3模型发行版提供vLLM零日支持;;
- Red Hat AI推理服务器在Google Cloud平台正式上线;;
- 开展智能体AI研发,Red Hat作为贡献方参与Google Agent2Agent(A2A)协议开发。.
通过vLLM强化AI推理能力
为彰显其即装即用承诺, Red Hat现已成为Google开放模型系列Gemma(首从Gemma 3开始)的首批测试企业之一,并率先实现对 vLLM. 的支持。vLLM作为开源推理服务器,可加速生成式AI应用运行。作为vLLM的核心商业贡献者,Red Hat正使该平台为生成式AI应用提供更高效、更敏捷的响应能力。.
此外,, Google Cloud TPU——集成于Google AI产品组合的高性能AI加速器,现已实现与vLLM的全面兼容. 。该集成使开发人员能够最大化利用计算资源,同时获得实现快速精准推理所需的核心性能与效率。.
鉴于AI正从研究向实际部署转型,众多组织面临多元AI生态系统的复杂性及采用分布式计算策略的需求。为应对此挑战,Red Hat启动了 开源项目llm-d, ,并邀请Google作为创始贡献方。依托vLLM社区的发展势头,该倡议旨在开启生成式AI推理的新纪元。其目标是在持续推动技术创新的同时,实现异构资源的高可扩展性、优化成本并提升工作负载效率。.
依托社区创新驱动企业级AI发展
为将开源社区的最新进展引入企业环境, Red Hat AI推理服务器 现已 正式登陆Google Cloud平台. 。作为Red Hat推出的vLLM企业级发行版,该推理服务器可帮助企业优化混合云环境中的模型推理性能。借助Google Cloud可靠的基础架构,组织能够部署同时具备高响应性与规模经济性的生产就绪型生成式AI模型。.
为彰显双方对开放AI的共同承诺, Red Hat同时开始参与贡献Google Agent2Agent(A2A) 协议 ——该应用层协议可促进跨平台、跨云环境的智能体与终端用户通信。通过积极参与A2A生态系统,Red Hat致力于加速创新,并凭借 智能体AI.
的技术优势确保AI工作流程持续保持动态性与高效性。
欢迎观看Red Hat Summit主题演讲,聆听Red Hat高管、客户及合作伙伴的最新洞见:
- 现代基础设施与企业AI的融合之道 ——5月20日周二 EDT上午8:00-10:00(YouTube)
- 混合云的演进:驱动企业创新新纪元 ——5月21日周三 EDT上午8:00-9:30(YouTube)

