تؤدي التحديثات الجديدة عبر محفظة الذكاء الاصطناعي الخاصة بـ Red Hat إلى إحداث تحولات كبيرة في صناعة المؤسسات. من خلال Red Hat AI، تسعى الشركة إلى توسيع القدرات اللازمة لتسريع اعتماد التكنولوجيا، وتوفير المزيد من الحرية والثقة للعملاء في عمليات نشر الذكاء الاصطناعي التوليدي (gen AI) في البيئات السحابية الهجينة. اعتبارًا من إطلاق Red Hat AI Inference Server، والنماذج المعتمدة من طرف ثالث في Red Hat AI، والتكامل مع واجهات برمجة تطبيقات Llama Stack وModel context Protocol (MCP)، تعيد الشركة وضعها في السوق لمختلف طرائق الذكاء الاصطناعي.
وفقًا لشركة Forrester، ستكون البرامج مفتوحة المصدر هي المحرك لتسريع جهود الذكاء الاصطناعي في المؤسسات. ومع ازدياد تعقيد وديناميكية مشهد الذكاء الاصطناعي خادم الاستدلال ريد هات AI وتوفر النماذج المعتمدة من طرف ثالث استنتاجًا فعالاً ومجموعة مختبرة من نماذج الذكاء الاصطناعي المحسنة للأداء على منصة Red Hat AI. من خلال دمج واجهات برمجة التطبيقات الجديدة لتطوير وكيل الذكاء الاصطناعي العام، والذي يتضمن Llama Stack وMCP، تعمل Red Hat على تبسيط تعقيد النشر، وتمكين قادة تكنولوجيا المعلومات وعلماء البيانات والمطورين من تطوير مبادرات الذكاء الاصطناعي الخاصة بهم بمزيد من التحكم والكفاءة.
الاستدلال السحابي الهجين الفعال مع Red Hat AI Inference Server
تتميز محفظة Red Hat AI بالجديدة خادم الاستدلال ريد هات AI، تتميز باستدلال أسرع ومتسق وفعال من حيث التكلفة على نطاق واسع عبر البيئات السحابية المختلطة. تم دمج هذه الإضافة مع أحدث إصدارات Red Hat OpenShift AI وRed Hat Enterprise Linux AI، وهي متاحة أيضًا كحل مستقل، مما يمكّن المؤسسات من نشر التطبيقات الذكية بكفاءة ومرونة وأداء أكبر.
تم تجربة النماذج وتحسينها باستخدام Red Hat AI والتحقق من صحة الطرف الثالث
نماذج Red Hat AI التي تم التحقق من صحتها من قبل طرف ثالثمتوفر في معانقة الوجه، اجعل من السهل على الشركات اختيار النماذج المناسبة لاحتياجاتها. يقدم Red Hat AI مجموعة من النماذج التي تم التحقق من صحتها، بالإضافة إلى إرشادات النشر التي تزيد من ثقة العملاء في أداء النموذج وإمكانية تكرار النتائج. تم أيضًا تحسين النماذج المختارة بواسطة Red Hat، باستخدام تقنيات ضغط النماذج التي تقلل حجمها وتزيد من سرعة الاستدلال، مما يساعد على تقليل استهلاك الموارد وتكاليف التشغيل. بالإضافة إلى ذلك، تساعد عملية التحقق المستمر من صحة النموذج عملاء Red Hat AI على البقاء في طليعة ابتكارات الذكاء الاصطناعي العامة.
واجهات برمجة التطبيقات الموحدة لتطبيقات الذكاء الاصطناعي وتطوير الوكلاء باستخدام Llama Stack وMCP
يقوم Red Hat AI بدمج لاما ستاكتم تطويره في البداية بواسطة Meta، جنبًا إلى جنب مع MCP من Anthropic، لتوفير واجهات برمجة تطبيقات موحدة لبناء ونشر تطبيقات ووكلاء الذكاء الاصطناعي. متوفر حاليًا في إصدار معاينة المطور في Red Hat AI، يوفر Llama Stack واجهة برمجة تطبيقات موحدة للوصول إلى الاستدلال باستخدام vLLM، والجيل المحسن للاسترداد (RAG)، وتقييم النموذج، والمزيد الدرابزين والوكلاء، في أي نموذج عام للذكاء الاصطناعي. يسمح MCP للنماذج بالتكامل مع الأدوات الخارجية، مما يوفر واجهة موحدة للاتصال بواجهات برمجة التطبيقات والمكونات الإضافية ومصادر البيانات في سير عمل الوكيل.
أحدث نسخة من ريد هات OpenShift AI (الإصدار 2.20) يوفر تحسينات إضافية لبناء وتدريب ونشر ومراقبة نماذج الذكاء الاصطناعي التوليدية والتنبؤية على نطاق واسع. تشمل النقاط البارزة ما يلي:
- كتالوج النماذج الأمثل (المعاينة الفنية): سهولة الوصول إلى Red Hat ونماذج الجهات الخارجية التي تم التحقق من صحتها، مع نشر وحدة تحكم الويب وإدارة دورة الحياة الكاملة مع تسجيل OpenShift المتكامل.
- التدريب الموزع مع مشغل تدريب KubeFlow: قم بتشغيل تعديلات النموذج باستخدام أحمال عمل InstructLab وPyTorch الموزعة عبر عقد Red Hat OpenShift ووحدات معالجة الرسومات المتعددة، مع شبكة RDMA الموزعة للتسريع واستخدام أفضل لوحدة معالجة الرسومات لتقليل التكاليف.
- مخزن الميزات (المعاينة الفنية): استنادًا إلى مشروع Kubeflow Feast، فهو يوفر مستودعًا مركزيًا لإدارة وتقديم البيانات للتدريب والاستدلال، وتحسين تدفق البيانات وتحسين دقة النموذج وقابلية إعادة الاستخدام.
The ريد هات إنتربرايز لينكس AI 1.5 يجلب تحديثات جديدة إلى منصة النماذج الأساسية لـ Red Hat، مع التركيز على تطوير واختبار وتنفيذ نماذج اللغة واسعة النطاق (LLMs). تشمل الميزات الرئيسية للإصدار 1.5 من RHEL AI ما يلي
- التوفر في Google Cloud Marketplace توسيع خيارات العملاء لتشغيل Red Hat Enterprise Linux AI على السحابات العامة (بالإضافة إلى AWS وAzure)، مما يسهل نشر أعباء عمل الذكاء الاصطناعي وإدارتها على Google Cloud.
- تعزيز القدرات بلغات متعددة للغة الإسبانية والألمانية والفرنسية والإيطالية عبر InstructLab، مما يسمح بتخصيص النماذج باستخدام النصوص الأصلية وتوسيع إمكانيات تطبيقات الذكاء الاصطناعي متعددة اللغات. يمكن للمستخدمين أيضًا استخدام “teacher” و“student” الخاصين بهم لمزيد من التحكم في التخصيص والاختبار، مع توقع الدعم المستقبلي للغة اليابانية والهندية والكورية.
The Red Hat AI InstructLab على IBM Cloud تعمل هذه الخدمة السحابية الجديدة على تبسيط عملية تخصيص النماذج وتحسين قابلية التوسع وتجربة المستخدم. يمكن للمؤسسات استخدام بياناتها بشكل أكثر كفاءة وبتحكم أكبر.
رؤية ريد هات: أي طراز، أي مسرع، أي سحابة
يجب تحديد مستقبل الذكاء الاصطناعي من خلال فرص غير محدودة وليس مقيدًا بصوامع البنية التحتية. ترى Red Hat أفقًا حيث يمكن للمؤسسات نشر أي نموذج، على أي مسرع، في أي سحابة، مما يوفر تجربة مستخدم استثنائية وأكثر اتساقًا، دون أي تكلفة باهظة. لإطلاق الإمكانات الحقيقية لاستثمارات الذكاء الاصطناعي العامة، تحتاج الشركات إلى منصة استدلال عالمية ومعيار جديد لابتكارات الذكاء الاصطناعي المستمرة وعالية الأداء، سواء الآن أو في السنوات القادمة.
قمة ريد هات
انضم إلى الكلمات الرئيسية لقمة Red Hat للاستماع إلى أحدث ما توصلت إليه المديرين التنفيذيين والعملاء والشركاء في Red Hat
- البنية التحتية الحديثة المتوافقة مع الذكاء الاصطناعي للمؤسسات 20 مايو، 8: 10: بتوقيت شرق الولايات المتحدة (موقع YouTube)
- تتطور السحابة الهجينة لدفع الابتكار في مجال الأعمال 21 مايو، 8:9:30 بتوقيت شرق الولايات المتحدة (موقع YouTube)