Два великих гравці Відкрита трансформація штучного інтелекту щойно оголосила про масштаби співпраці для підвищення штучного інтелекту. Розвиток партнерства між Red Hat і Google Cloud зосереджується на розширенні списку корпоративних програм для ШІ, приєднанні технологій з відкритим кодом лідера з відкритим кодом зі спеціалізованою інфраструктурою Google та його сімейним сімейством Gemma.
Разом компанії будуть просувати випадки використання для ескалації штучного інтелекту за допомогою:
- запуск проекту LLM-D з відкритим кодом, а Google є співробітником-засновником;
- Підтримка VLLM у Google Cloud TPU та віртуальних машинах із графічними процесорами для покращення висновку AI;
- Підтримка в день нуля до VLLM з розподілами моделі Gemma 3;
- наявність Red Hat AI Inference Server у Google Cloud;
- Агентська розробка AI з Red Hat як співавтор протоколу Google Agent2Agent (A2A).
Підкріплення висновку AI за допомогою VLLM
Демонструючи свою прихильність до готовності з нульового дня, Red Hat тепер є одним із перших тестувальників відкритої моделі сімейства Gemma від Google, починаючи з Gemma 3, з негайною підтримкою vllm. VLLM — це сервер з відкритим кодом, який прискорює виконання генеративних програм AI. Як провідний бізнес-контрибут VLLM, Red Hat робить цю платформу більш ефективною та чуйною для додатків Genia.
Крім того, е-е Google Cloud TPUS, високопродуктивні прискорювачі AI, які інтегрують портфоліо Google AI, тепер повністю сумісні з VLLM. Ця інтеграція дозволяє розробникам максимізувати ресурси, одночасно отримуючи важливу продуктивність та ефективність для швидкого та точного висновку.
Визнаючи перехід від дослідження ШІ до розгортання в реальному світі, багато організацій стикаються зі складністю різноманітної екосистеми штучного інтелекту та потребою прийняти більш розподілені обчислювальні стратегії. Щоб задовольнити цей попит, Red Hat запустив Проект LLM-D з відкритим кодом, з Google як співавтором-засновником. Використовуючи імпульс спільноти VLLM, ця ініціатива має на меті розпочати нову еру виведення Gen AI. Мета полягає в тому, щоб забезпечити більшу масштабованість у гетерогенних ресурсах, оптимізувати витрати та підвищити ефективність робочого навантаження — і все це сприяючи постійним інноваціям.
Підвищення бізнес-ШІ за допомогою інновацій на основі спільноти
Донесення останніх досягнень від спільноти з відкритим кодом до бізнес-середовища, Сервер висновків штучного інтелекту Red Hat тепер Він доступний у хмарі Google. Подібно до розподілу бізнесу VLLM від Red Hat, сервер AI виведення допомагає компаніям оптимізувати висновки моделі в їх гібридному хмарному середовищі. Використовуючи надійну інфраструктуру Google Cloud, організації можуть розгорнути готові до виробництва генеративні моделі ШІ, які є як дуже реагуючими, так і економічними в масштабі.
Висвітлення спільної прихильності з відкритим штучним інтелектом, Red Hat також почав робити внесок у протокол Agent2Agent (A2A) Від Google — Протокол на рівні програми, який полегшує зв’язок між агентами та кінцевими користувачами на різних платформах і хмарах. Активно беручи участь в екосистемі A2A, Red Hat прагне прискорити інновації та забезпечити, щоб робочі процеси AI залишалися динамічними та ефективними завдяки потужності Agentic AI.
Саміт Red Hat
Дивіться основні доповіді Red Hat Summit, щоб почути останні новини від керівників, клієнтів і партнерів Red Hat:
- Сучасна інфраструктура, узгоджена з корпоративним ШІ 20 травня, 8 год - 10 год EDT (YouTube)
- Гібридна хмара розвивається, щоб стимулювати бізнес-інновації 21 травня, 8:00-9:30 EDT (YouTube)

