在本周三(13日),Red Hat 完成了收购美国公司 Neural Magic 的过程,该公司在生成式人工智能(GenAI)软件和算法方面处于领先地位。 Neural Magic 在性能工程方面的专业知识以及其对开源的承诺,与红帽致力于提供高性能人工智能的愿景一致,能够适应不同场景和客户用例,适用于任何混合云环境。
虽然GenAI的承诺占据了当前技术领域的很大一部分,但支撑这些系统的大型语言模型(LLMs)仍在不断增长。 因此,构建可靠且具有良好性价比的大型语言模型服务需要大量的计算能力、能源资源和专业的操作技能。 目前,这些障碍使得个性化人工智能的优势无法实现,难以部署,并且对大多数组织来说更安全。
通过收购 Neural Magic,Red Hat 旨在通过 vLLM 的开放创新,使更多组织能够更容易地访问生成式人工智能,从而应对这些挑战。 由加州大学伯克利分校开发的vLLM是一个由社区维护的开源项目,旨在开放模型服务(如生成式AI模型的推理和问题解决),支持所有主要的模型系列,具有先进的推理加速研究,以及多种硬件后端,包括AMD GPU、AWS Neuron、Google TPU、Intel Gaudi、NVIDIA GPU和x86 CPU。 Neural Magic 在 vLLM 项目中的领导结合 Red Hat 强大的混合云人工智能技术组合,将为组织提供一条开放的路径,构建满足其独特需求的人工智能策略,无论其数据身在何处。
对于公司总裁兼首席执行官Matt Hicks来说,收购Neural Magic以及vLLM项目的开发,是将公司打造为人工智能领域标杆的第一步。我们很高兴能够用Neural Magic的革命性人工智能创新来补充我们专注于混合云的人工智能产品组合,增强我们不仅成为“开源的红帽”,还成为“人工智能的红帽”的愿望。
Red Hat + Neural Magic:实现混合云就绪的 Gen AI 未来
Neural Magic 于2018年由MIT衍生成立,旨在构建用于深度学习的高性能推理软件。 凭借Neural Magic的技术和性能工程专业知识,Red Hat旨在加快其以Red Hat的人工智能技术组合为驱动力的人工智能未来愿景。 为了应对大规模企业人工智能的挑战,公司采用开源创新,进一步普及人工智能的变革力量,具体包括:
- 开源授权模型,参数规模从10亿到4050亿,可在任何混合云环境中运行——企业数据中心、多云环境和边缘计算。
- 调整功能允许组织更轻松地使用其私有数据和用例定制 LLM,并提供更强大的安全框架。
- 推理性能工程方面的专业知识,从而提高运营和基础设施效率
- 由合作伙伴和支持结构组成的开源生态系统使客户拥有更多选择,从 LLM 和工具到经过认证的服务器硬件和芯片架构。
vLLM 领导力推动 Red Hat AI 进步
Neural Magic 将利用其在 vLLM 方面的专业知识和经验,构建一套企业级技术基础,使客户能够在混合云环境中优化、部署和扩展大型语言模型(LLM)工作负载,同时完全控制基础设施的选择、安全策略和模型的生命周期。 Neural Magic 还进行模型优化的研究,构建了 LLM 压缩器(一个用于使用最新稀疏和量化算法优化大型语言模型的统一库),并维护一个预先优化好、可与 vLLM 一起部署的模型仓库。
Red Hat AI 旨在通过强大的技术帮助客户降低 AI 成本和技能障碍,例如:
- Red Hat Enterprise Linux AI(RHEL AI),一个基础模型平台,用于在 Linux 服务器部署上无缝开发、测试和操作适用于企业应用程序的 IBM Granite 系列开源 LLM;
- 红帽 OpenShift 人工智能,一个人工智能平台,提供工具在本地、公共云或边缘的分布式 Kubernetes 环境中快速开发、训练、服务和监控机器学习模型;
- 指导实验室由红帽和IBM创建的开源社区项目,允许任何人通过使用InstructLab的微调技术,以开源许可证的Granite大型语言模型(LLMs)协作改进,塑造GenAI的未来。
Neural Magic 在 vLLM 方面的技术领导地位将增强 Red Hat AI 通过现成的、高度优化的开放推理堆栈支持在任何环境和混合云中的任何位置进行 LLM 部署的能力。
该交易仍需经过美国监管部门的批准并满足其他常规成交条件。