두 주요 기업이 AI 기술 강화를 위한 협력 확대를 발표했습니다. 레드햇과 구글 클라우드의 파트너십 강화는 AI를 위한 기업용 애플리케이션의 범위를 넓히는 데 중점을 두고 있으며, 오픈소스 업계의 선두주자인 레드햇의 오픈소스 기술과 구글의 특화된 인프라 및 젬마(Gemma) 모델 제품군을 결합할 예정입니다.
양사는 협력을 통해 다음과 같은 방식으로 AI 확장을 위한 활용 사례를 발전시켜 나갈 것입니다
- 구글이 창립 참여 기업으로 참여한 오픈 소스 llm-d 프로젝트가 출시되었습니다
- AI 추론 성능 향상을 위해 Google Cloud TPU 및 GPU 지원 가상 머신(VM)에서 vLLM을 지원합니다
- Gemma 3 모델 배포판을 사용한 vLLM에 대한 제로데이 지원;
- Google Cloud에서 Red Hat AI 추론 서버를 사용할 수 있습니까?
- Red Hat과 협력하여 Google의 Agent2Agent(A2A) 프로토콜에 기반한 에이전트형 AI를 개발하고 있습니다.
vLLM을 활용한 AI 추론 능력 강화
출시 첫날부터 즉시 사용 가능한 솔루션을 제공하기 위해 구글의 오픈 모델 제품군인 Gemma 3부터 테스트에 참여하며, vLLM . vLLM은 생성형 AI 애플리케이션의 실행 속도를 향상시키는 오픈 소스 추론 서버입니다. vLLM의 주요 상용 파트너로서 레드햇은 이 플랫폼을 생성형 AI 애플리케이션에 더욱 효율적이고 반응성이 뛰어나도록 만들고 있습니다.
또한 Google의 AI 포트폴리오에 포함된 고성능 AI 가속기인 Google Cloud TPU가 vLLM과 완벽하게 호환됩니다 . 이러한 통합을 통해 개발자는 리소스를 최대한 활용하면서 빠르고 정확한 추론에 필수적인 성능과 효율성을 달성할 수 있습니다.
인공지능 연구에서 실제 적용으로의 전환이 가속화됨에 따라, 많은 조직들은 복잡하고 다양한 인공지능 생태계 속에서 분산 컴퓨팅 전략을 도입해야 하는 과제에 직면하고 있습니다. 이러한 요구에 부응하기 위해 Red Hat은 오픈소스 llm-d 프로젝트를 . vLLM 커뮤니티의 성장세를 발판으로 삼아, 이 프로젝트는 인공지능 유전자 추론의 새로운 시대를 열고자 합니다. 목표는 이기종 리소스 전반에 걸쳐 확장성을 향상시키고, 비용을 최적화하며, 워크로드 효율성을 높이는 동시에 지속적인 혁신을 촉진하는 것입니다.
커뮤니티 기반 혁신으로 기업 AI를 선도하다
오픈 소스 커뮤니티의 최신 기술 발전을 기업 환경에 접목한 Red Hat AI Inference Server가 이제 됩니다 . Red Hat의 vLLM 엔터프라이즈 배포판과 마찬가지로 AI Inference Server는 기업이 하이브리드 클라우드 환경 전반에서 모델 추론을 최적화할 수 있도록 지원합니다. Google Cloud의 신뢰할 수 있는 인프라를 활용하여 기업은 반응성이 뛰어나고 비용 효율적인 생성형 AI 모델을 대규모로 배포할 수 있습니다.
레드햇은 개방형 AI에 대한 공동의 노력을 강조하며, 구글의 Agent2Agent(A2A) 에이전트 기반 AI 의 강력한 기능을 활용하여 AI 워크플로우가 역동적이고 효율적으로 유지되도록 지원하고자 합니다 .
레드햇 서밋
레드햇 서밋 기조연설을 시청하여 레드햇 임원, 고객 및 파트너의 최신 소식을 들어보세요
- 엔터프라이즈 AI에 맞춰진 최신 인프라 - 5월 20일 화요일 오전 8시~10시 EDT( YouTube )
- 하이브리드 클라우드는 비즈니스 혁신을 주도하기 위해 진화합니다 . - 5월 21일 수요일 오전 8시~9시 30분 EDT( YouTube )

