Zwei große Spielern Ausgehend von der offenen Transformation der künstlichen Intelligenz haben wir gerade die Ausweitung der Zusammenarbeit zur Förderung der KI angekündigt. Der Fortschritt der Partnerschaft zwischen Red Hat und Google Cloud konzentriert sich auf die Erweiterung der Liste von Geschäftsanwendungen für KI und die Kombination der Open-Source-Technologien des Open-Source-Spitzenreiters mit der spezialisierten Infrastruktur von Google und seiner Modellfamilie Gemma.
Gemeinsam werden Unternehmen Anwendungsfälle für die KI-Skalierung vorantreiben:
- Start des Open-Source-Projekts llm-d mit Google als Gründungsmitarbeiter;
- Unterstützt vLLM auf Google Cloud TPUs und GPU-betriebenen virtuellen Maschinen (VMs), um die KI-Inferenz zu verbessern;
- Zero-Day-Unterstützung für vLLM mit Gemma 3-Modellverteilungen;
- Verfügbarkeit des Red Hat AI Inference Servers in der Google Cloud;
- Entwicklung von KI-Agenten mit Red Hat als Mitarbeiter im Agent2Agent (A2A)-Protokoll von Google.
Verstärkung der KI-Inferenz mit vLLM
Unter Beweis seines Engagements für die Bereitschaft vom Tag Null an, die Red Hat ist nun einer der ersten Tester in Googles offener Modellfamilie Gemma, beginnend mit Gemma 3, mit sofortiger Unterstützung für die vllm. vLLM ist ein Open-Source-Inferenzserver, der die Ausführung generativer KI-Anwendungen beschleunigt Als führender kommerzieller Mitwirkender von vLLM macht Red Hat diese Plattform effizienter und reaktionsfähiger für gen-KI-Anwendungen.
Außerdem, äh Google Cloud TPUs, leistungsstarke KI-Beschleuniger, die das KI-Portfolio von Google integrieren, sind jetzt vollständig mit vLLM kompatibel. Diese Integration ermöglicht es Entwicklern, die Ressourcen zu maximieren und gleichzeitig die Leistung und Effizienz zu erzielen, die für eine schnelle und genaue Schlussfolgerung unerlässlich sind.
Viele Organisationen sind sich des Übergangs von der KI-Forschung zur realen Bereitstellung bewusst und stehen vor der Komplexität eines vielfältigen KI-Ökosystems und der Notwendigkeit, verteiltere Computerstrategien einzuführen Open-Source-Projekt llm-d„mit Google als Gründungsbeitragszahler. Aufbauend auf der Dynamik der vLLM-Community zielt diese Initiative darauf ab, eine neue Ära für die Gen-KI-Inferenz einzuläuten. Das Ziel besteht darin, eine größere Skalierbarkeit über heterogene Ressourcen hinweg zu ermöglichen, Kosten zu optimieren und die Arbeitsbelastungseffizienz zu steigern - und das alles bei gleichzeitiger Förderung kontinuierlicher Innovation.
Förderung der Unternehmens-KI durch gemeinschaftsbasierte Innovation
Die neuesten Fortschritte aus der Open-Source-Community in die Unternehmensumgebung bringen Red Hat AI Inference Server Jetzt Es ist in der Google Cloud verfügbarÄhnlich wie die Unternehmensverteilung von vLLM durch Red Hat hilft AI Inference Server Unternehmen dabei, die Modellinferenz in ihrer Hybrid-Cloud-Umgebung zu optimieren. Durch die Nutzung der vertrauenswürdigen Infrastruktur von Google Cloud können Unternehmen produktionsbereite, generative KI-Modelle bereitstellen, die sowohl äußerst reaktionsschnell als auch reaktionsschnell sind kosteneffektiv im großen Maßstab.
Hervorhebung des gemeinsamen Engagements für offene KI, der Red Hat trug ebenfalls zum Protokoll bei Agent2Agent (A2A) Google's 2 ein Protokoll auf Anwendungsebene, das die Kommunikation zwischen Agenten und Endbenutzern über verschiedene Plattformen und Clouds hinweg erleichtert. Durch die aktive Teilnahme am A2A-Ökosystem möchte Red Hat Innovationen beschleunigen und sicherstellen, dass KI-Workflows dynamisch und effektiv bleiben und die Leistungsfähigkeit von nutzen KI-Agent.
Gipfel des Roten Hutes
Sehen Sie sich die Keynotes von Red Hat Summit an, um das Neueste von Führungskräften, Kunden und Partnern von Red Hat zu hören:
- Moderne Infrastruktur, die auf Unternehmens-KI ausgerichtet ist 20. Mai, 8 Uhr - 10 Uhr EDT (YouTube)
- Hybrid Cloud entwickelt sich, um Unternehmensinnovationen voranzutreiben 21. Mai, 8.-9.30 Uhr EDT (YouTube)

