两大巨头近日宣布扩大合作,以推动人工智能发展。红帽与谷歌云此次深化合作,旨在拓展人工智能在企业中的应用范围,将开源领导者红帽的开源技术与谷歌的专业基础设施及其Gemma模型系列相结合。
双方将携手推进人工智能规模化应用案例,具体方式包括:
- 启动开源 llm-d 项目,谷歌是创始贡献者之一;
- 支持在 Google Cloud TPU 和启用 GPU 的虚拟机 (VM) 上使用 vLLM 来增强 AI 推理;
- 对具有 Gemma 3 模型分布的 vLLM 的零日支持;
- Red Hat AI推理服务器在Google Cloud上的可用性;
- 与 Red Hat 合作,基于 Google 的 Agent2Agent (A2A) 协议开发智能 AI。
利用 vLLM 增强 AI 推理
为了展现其对快速部署的承诺,红帽已成为谷歌 Gemma 系列开放模型的首批测试者之一,从 Gemma 3 开始,并立即支持vLLM。vLLM是一款开源推理服务器,可加速生成式 AI 应用的执行。作为 vLLM 的主要商业贡献者,红帽正致力于提升该平台在生成式 AI 应用方面的效率和响应速度。
此外,作为谷歌人工智能产品组合一部分的高性能人工智能加速器——谷歌云TPU,现已与vLLM完全兼容。这种集成使开发者能够最大限度地利用资源,同时实现快速准确推理所需的性能和效率。
鉴于人工智能研究正逐步向实际部署过渡,许多组织面临着复杂多样的人工智能生态系统带来的挑战,并需要采用更分布式的计算策略。为了满足这一需求,红帽公司推出了开源项目 llm-d ,谷歌是该项目的创始贡献者之一。该项目依托虚拟逻辑层级管理 (vLLM) 社区的蓬勃发展势头,旨在开启人工智能基因推断的新时代。其目标是在异构资源上实现更高的可扩展性,优化成本,提高工作负载效率,并促进持续创新。
利用社区创新推动企业人工智能发展
Red Hat AI Inference Server将开源社区的最新成果引入企业环境,现已推出。与 Red Hat 的企业版 vLLM 类似,AI Inference Server 可帮助企业优化其混合云环境中的模型推理。借助 Google Cloud 的可信基础架构,企业可以部署生产就绪的生成式 AI 模型,这些模型不仅响应迅速,而且经济高效,能够大规模部署。
为了彰显其对开放人工智能的共同承诺,红帽公司也开始为谷歌的Agent2Agent (A2A)是一种应用层协议,旨在促进不同平台和云平台上的代理与最终用户之间的通信。通过积极参与 A2A 生态系统,红帽公司力求加速创新,并借助智能代理人工智能。
红帽峰会
观看红帽峰会主题演讲,了解红帽高管、客户和合作伙伴的最新消息:
- 与企业人工智能相契合的现代化基础设施——美国东部时间5月20日星期二上午8-10点( YouTube )
- 混合云正在演进,以推动业务创新——美国东部时间5月21日星期三上午8-9:30( YouTube )

