两大重要的人工智能开放转换领域的主要参与者 刚刚宣布延伸合作以推动人工智能。 Red Hat和Google Cloud合作伙伴关系的进一步发展旨在扩大企业应用程序范围,将开源领导者的技术与Google的专业基础设施以及Gemma系列模型相结合。
两家公司将共同探索人工智能扩展用例,包括:
- LLM-D开源项目的推出,谷歌成为创始合作伙伴;
- 支持Google Cloud TPU和GPU虚拟机(VM)上的vLLM以增强人工智能推理;
- 与Gemma 3模型分发一起,提供vLLM的零日支持;
- 在Google Cloud上提供Red Hat AI Inference Server;
- 与Red Hat合作开发Agent2Agent(A2A)协议的AI代理系统。
通过vLLM强化人工智能推理
展示自从第一天起就对及时性的承诺,Red Hat现在是Google开放模型家族Gemini的早期测试者之一,从Gemma 3开始,立即支持vLLM。vLLM是一个开源推理服务器,加速生成式AI应用的执行。作为vLLM的主要商业合作伙伴,Red Hat正在使这一平台对生成式AI应用更具效率和响应性。
此外,Google Cloud的TPU,Google IA端口的高性能加速器,现已完全兼容vLLM。这种集成使开发人员在获得快速和准确推理的同时最大限度地利用资源,从而实现关键的性能和效率。
认识到人工智能研究向现实世界的实施转变,许多组织面临着多样化人工智能生态系统的复杂性和采用更分布式计算策略的需求。为了满足这一需求,Red Hat推出了与谷歌作为创始合作伙伴的llm-d开源项目。利用vLLM社区的势头,该倡议旨在开启通用AI推理的新时代。其目标是在异构资源上实现更高的可扩展性,优化成本并提高工作负载效率,同时推动持续创新。
通过基于社区创新推动企业人工智能
将开源社区的最新进展引入企业环境,Red Hat AI Inference Server现在在Google Cloud上可用。与Red Hat通过vLLM提供的企业级分发类似,AI Inference Server帮助企业优化其混合云环境中的模型推理。借助Google Cloud可靠的基础设施,组织可以部署生产就绪的生成式AI模型,这些模型既具有高度响应性,又在规模上具有经济效益。
强调与开放AI的共同承诺,Red Hat也开始为Agent2Agent (A2A) Google — 一种应用级别的协议,可促进在各种平台和云中代理和最终用户之间的通信。通过积极参与A2A生态系统,Red Hat旨在加速创新,并确保AI工作流程保持动态和有效,发挥Agentic AI的力量。
Red Hat Summit
观看Red Hat Summit的主题演讲,了解Red Hat的高管、客户和合作伙伴带来的最新消息:
- Infraestrutura moderna alinhada à IA empresarial —Terça-feira, 20 de maio, 8h -10h EDT (YouTube)
- A nuvem híbrida evolui para impulsionar a inovação empresarial — Quarta-feira, 21 de maio, 8h-9h30 EDT (YouTube)