Двама големи играчи Отворената трансформация на изкуствения интелект току-що обяви степента на сътрудничество за стимулиране на AI. Напредъкът на партньорството между Red Hat и Google Cloud се фокусира върху разширяването на списъка с корпоративни приложения за AI, присъединявайки се към технологиите с отворен код на лидера с отворен код със специализираната инфраструктура на Google и неговото семейство модели, Gemma.
Заедно компаниите ще напредват в случаи на употреба за ескалация на AI чрез:
- стартиране на проекта LLM-D с отворен код, с Google като сътрудник-основател;
- Подкрепете VLLM в облачни TPU на Google и VM с графични процесори за подобряване на изводите за AI;
- Поддръжка от ден нула до VLLM с разпределенията на модела GEMMA 3;
- наличност на Red Hat AI Inference Server в Google Cloud;
- AI Agentic Development с Red Hat като сътрудник на протокола Agent2Agent (A2A) на Google.
Подсилване на изводите за AI с VLLM
демонстрирайки своя ангажимент към готовността от нула ден, Red Hat вече е един от първите тестери на Open Model Family на Google, започвайки с Gemma 3, с незабавна подкрепа за vllm. VLLM е сървър за изводи с отворен код, който ускорява изпълнението на генеративни AI приложения. Като водещ бизнес сътрудник на VLLM, Red Hat прави тази платформа по-ефективна и отзивчива за приложения на Genia.
Освен това, Google Cloud TPU, високопроизводителни AI ускорители, които интегрират портфолиото на Google AI, вече са напълно съвместими с VLLM. Тази интеграция позволява на разработчиците да увеличат максимално ресурсите, като същевременно получават основната производителност и ефективност за бързи и точни изводи.
Признавайки прехода от изследвания на ИИ към внедряване в реалния свят, много организации са изправени пред сложността на разнообразна AI екосистема и необходимостта от приемане на по-разпределени изчислителни стратегии. За да отговори на това търсене, Red Hat стартира LLM-D проект с отворен код, с Google като основател. Възползвайки се от импулса на VLLM общността, тази инициатива има за цел да открие нова ера за изводи на Gen AI. Целта е да се даде възможност за по-голяма мащабируемост в хетерогенните ресурси, да се оптимизират разходите и да се увеличи ефективността на работното натоварване – като същевременно се насърчава непрекъснатите иновации.
Засилване на бизнес AI с иновации в общността
Довеждане на най-новите постижения от общността с отворен код в бизнес средата, Red Hat AI Inference Server сега Той е наличен в Google Cloud. Точно като бизнес разпространението на VLLM от Red Hat, AI Inference Server помага на компаниите да оптимизират изводите на модела в тяхната хибридна облачна среда. Използвайки надеждната инфраструктура на Google Cloud, организациите могат да внедрят готови за производство генеративни AI модели, които са едновременно силно отзивчиви и икономични в мащаб.
подчертавайки съвместния ангажимент с отворен ИИ, Red Hat също започна да допринася за протокола Агент2Агент (A2A) От Google — Протокол на ниво приложение, който улеснява комуникацията между агенти и крайни потребители на различни платформи и облаци. Като участва активно в екосистемата A2A, Red Hat се стреми да ускори иновациите и да гарантира, че работните процеси на AI остават динамични и ефективни със силата на Агентно-центричен изкуствен интелект (Agentic AI).
Red Hat Summit
Гледайте Red Hat Summit Keynotes, за да чуете последните новини от ръководители, клиенти и партньори на Red Hat:
- Модерна инфраструктура, съобразена с корпоративния изкуствен интелект —Вторник, 20 май, 8:00 – 10:00 източноамериканско време (YouTube)
- Хибридният облак се развива, за да стимулира бизнес иновациите — Сряда, 21 май, 8:00 - 9:30 ч. източно американско време (YouTube)

