AwalBeritaRed Hat dan Google Cloud Memperluas Aliansi untuk Mendorong Kecerdasan Buatan Terbuka dan...

Red Hat dan Google Cloud memperluas aliansi untuk mendorong agen AI dan AI terbuka

Dua pemain besar pemain dalam transformasi terbuka kecerdasan artifisial baru saja mengumumkan perluasan kolaborasi untuk memajukan IA. Kemajuan kemitraan antara Red Hat dan Google Cloud berfokus pada perluasan portofolio aplikasi enterprise untuk IA, dengan menyatukan teknologi open source dari pemimpin open source dengan infrastruktur khusus Google dan keluarga modelnya, Gemma.

Bersama, kedua perusahaan akan memajukan use case untuk penskalaan IA melalui:

  • Peluncuran proyek open source llm-d, dengan Google sebagai kontributor pendiri;
  • Dukungan untuk vLLM pada TPU Google Cloud dan mesin virtual (VM) dengan GPU untuk meningkatkan inferensi IA;
  • Dukungan hari nol untuk vLLM dengan distribusi model Gemma 3;
  • Ketersediaan Red Hat AI Inference Server di Google Cloud; 
  • Pengembangan AI agentik dengan Red Hat sebagai kontributor dalam protokol Agent2Agent (A2A) Google.

Memperkuat Inferensi IA dengan vLLM

Mendemonstrasikan komitmen mereka terhadap kesiapan sejak hari nol, Red Hat kini menjadi salah satu penguji pertama keluarga model terbuka Google, Gemma, dimulai dengan Gemma 3, dengan dukungan langsung untuk vLLM. vLLM adalah server inferensi open source yang mempercepat eksekusi aplikasi AI generatif. Sebagai kontributor komersial utama untuk vLLM, Red Hat membuat platform ini lebih efisien dan responsif untuk aplikasi gen AI.

Selain itu, eh TPU Google Cloud, akselerator AI berkinerja tinggi yang terintegrasi dalam portofolio AI Google, kini sepenuhnya kompatibel dengan vLLM. Integrasi ini memungkinkan developer memaksimalkan sumber daya sekaligus mendapatkan kinerja dan efisiensi yang penting untuk inferensi yang cepat dan akurat.

Mengakui transisi dari penelitian AI ke deployment di dunia nyata, banyak organisasi menghadapi kompleksitas ekosistem AI yang beragam dan kebutuhan untuk mengadopsi strategi komputasi yang lebih terdistribusi. Untuk memenuhi permintaan ini, Red Hat meluncurkan proyek open source llm-d, dengan Google sebagai kontributor pendiri. Memanfaatkan momentum komunitas vLLM, inisiatif ini bertujuan untuk membuka era baru untuk inferensi gen AI. Tujuannya adalah untuk memungkinkan skalabilitas yang lebih besar dalam sumber daya heterogen, mengoptimalkan biaya, dan meningkatkan efisiensi workload — semua itu sambil mendorong inovasi berkelanjutan.

Memajukan AI Perusahaan dengan Inovasi Berbasis Komunitas

Membawa kemajuan terbaru dari komunitas open source ke lingkungan perusahaan, Red Hat AI Inference Server kini tersedia di Google Cloud. Sebagai distribusi enterprise vLLM oleh Red Hat, AI Inference Server membantu perusahaan mengoptimalkan inferensi model di seluruh lingkungan hybrid cloud mereka. Memanfaatkan infrastruktur terpercaya Google Cloud, organisasi dapat mendeploy model AI generatif yang siap produksi, yang sangat responsif dan ekonomis dalam skala.

Menyoroti komitmen bersama terhadap AI terbuka, Red Hat juga kini berkontribusi pada protokol Agent2Agent (A2A) google's â€” sebuah protokol tingkat aplikasi yang memfasilitasi komunikasi antara agen dan pengguna akhir di berbagai platform dan cloud. Dengan berpartisipasi aktif dalam ekosistem A2A, Red Hat berupaya mempercepat inovasi dan memastikan alur kerja AI tetap dinamis dan efektif dengan kekuatan AI Agentik.

Red Hat Summit

Tonton keynote Red Hat Summit untuk mendengar pembaruan terbaru dari eksekutif, pelanggan, dan mitra Red Hat:

Pembaruan E-Commerce
Pembaruan E-Commercehttps://www.ecommerceupdate.org
E-Commerce Update adalah perusahaan terkemuka di pasar Brasil, yang mengkhususkan diri dalam memproduksi dan menyebarluaskan konten berkualitas tinggi tentang sektor e-commerce.
BERITA TERKAIT

TINGGALKAN BALASAN

Silakan ketik komentar Anda!
Silakan ketik nama Anda di sini

Terbaru

PALING POPULER

[persetujuan_cookie_elfsight id="1"]