Red HatのAIポートフォリオ全体にわたる新しいアップデートが、エンタープライズセクターにおける大きな変革を推進しています。 Red Hat AIを通じて、同社はテクノロジーの導入を加速するために必要な機能をさらに拡張し、ハイブリッドクラウド環境での生成AI (gen AI) 導入において、顧客により多くの自由と自信を提供することを目指しています。 Red Hat AI推論サーバー、Red Hat AIのサードパーティ検証モデル、Llama StackおよびModel Context Protocol (MCP) APIとの統合の開始時点で、同社はさまざまな人工知能モダリティの市場に再配置しています。.
Forrester 氏によると、エンタープライズ AI の取り組みを加速するエンジンはオープンソース ソフトウェアになります。AI の状況がより複雑かつダイナミックになるにつれて、 Red Hat AI 推論 サーバー そして、サードパーティが検証したモデルは、効率的な推論と、パフォーマンスに最適化された AI モデルのテスト済みコレクションを Red Hat AI プラットフォーム上で提供します。 Llama Stack や MCP を含む世代 AI エージェント開発用の新しい API を統合することで、Red Hat は展開の複雑さを簡素化し、IT リーダー、データ サイエンティスト、開発者が AI イニシアチブをより制御的かつ効率的に推進できるようにします。.
Red Hat AI Inference Serverによる効率的なハイブリッドクラウド推論
Red Hat AI ポートフォリオには新しい機能が搭載されています Red Hat AI 推論 サーバー,、ハイブリッドクラウド環境において、より高速で一貫性があり、コスト効率の高い推論を大規模に実現します。 この追加機能は、Red Hat OpenShift AI および Red Hat Enterprise Linux AI の最新バージョンと統合されており、スタンドアロン ソリューションとしても利用できるため、組織はより効率、柔軟性、パフォーマンスを向上させてインテリジェント アプリケーションを導入できます。.
Red Hat AI とサードパーティの検証を使用してモデルを試行し、最適化しました
サードパーティが検証した Red Hat AI のモデル, 、 で でき ハギング フェイス, 、企業がニーズに合った適切なモデルを簡単に選択できるように Red Hat AIは検証済みモデルのコレクションを提供するだけでなく、モデルのパフォーマンスと結果の再現性に対する顧客の信頼を高める展開ガイダンスも提供します 選択されたモデルはRed Hatによって最適化され、サイズを縮小し推論速度を向上させるモデル圧縮技術により、リソース消費と運用コストの最小化に役立ちます さらに、継続的なモデル検証プロセスにより、Red Hat AIの顧客は世代AIイノベーションの最前線に留まることができます。.
Llama Stack と MCP による AI アプリケーションとエージェント開発のための標準化された API
Red Hat AI は統合されています ラマスタック の, 当初は Meta によって開発されました MCP anthropicから、aiアプリケーションやエージェントを構築しデプロイするための標準化されたapiを提供 現在、Red Hat AIで開発者プレビュー版で利用できるLlama Stackは、vLLM、リカバリ強化生成 (RAG) 、 モデル評価などによる推論アクセスのための統合APIを提供しています, ガードレール また、エージェントは、あらゆる AI 世代モデルで、MCP を使用すると、モデルが外部ツールと統合され、エージェントのワークフローで API、プラグイン、データ ソースに接続するための標準化されたインターフェイスが提供されます。.
の 最新 バージョン Red Hat OpenShift AI (v2.20)生成および予測AIモデルを大規模に構築、トレーニング、デプロイ、監視するための追加の改善を提供します。ハイライトには以下が含まれます:
- 最適化されたモデルカタログ(テクニカルプレビュー): 検証済みの Red Hat およびサードパーティ モデルに簡単にアクセスでき、Web コンソールの展開と統合された OpenShift 登録による完全なライフサイクル管理が可能です。.
- KubeFlow トレーニング オペレーターによる分散トレーニング:複数のred Hat OpenShiftノードとGPUに分散されたInstructLabとPyTorchワークロードでモデルの調整を実行し、分散RDMAネットワークにより高速化とGPU使用率の向上を図り、コストを削減します。.
- フィーチャーストア (テクニカルプレビュー): 上流の Kubeflow Feast プロジェクトに基づいて、トレーニングと推論のためのデータを管理および配信するための集中リポジトリを提供し、データ フローを最適化し、モデルの精度と再利用性を向上させます。.
ザ Red Hat Enterprise Linux AI 1.5 大規模言語モデル (LLM) の開発、テスト、実行に重点を置くRed Hatのコアモデルプラットフォームに新たなアップデートをもたらす RHEL AIバージョン1.5 の主な機能には、次のものがあります:
- Google Cloud Marketplace での可用性, red Hat Enterprise Linux AI をパブリック クラウド上で (AWS と Azure に加えて) 実行する顧客の選択肢を拡大し、Google Cloud での AI ワークロードの展開と管理を容易にします。.
- 複数の言語での機能を強化 instructlab を介したスペイン語、ドイツ語、フランス語、イタリア語向け。ネイティブ スクリプトを使用したモデルのカスタマイズを可能にし、多言語 AI アプリケーションの可能性を拡大します。ユーザーは独自の「教師」と「生徒」を使用してカスタマイズとテストをより細かく制御することもでき、将来のサポートは日本語、ヒンディー語、韓国語でも予測されます。.
ザ IBM Cloud 上の Red Hat AI InstructLab この新しいクラウドサービスは、モデルのカスタマイズのプロセスをさらに簡素化し、スケーラビリティとユーザーエクスペリエンスを向上させます。企業は、より効率的に、より優れた制御でデータを使用できます。.
Red Hat ビジョン: あらゆるモデル、あらゆるアクセラレータ、あらゆるクラウド
AIの未来は、無限の可能性によって定義されるべきであり、インフラのシロによって制限されるべきではありません。Red Hatは、どのようなモデルであっても、どのようなアクセラレーターであっても、どのようなクラウドであっても、組織が展開できる、費用が莫大でない、そしてより一貫した優れたユーザーエクスペリエンスを提供できる未来を展望しています。Gen AIへの投資の真の潜在能力を引き出すためには、企業はユニバーサルな推論プラットフォームが必要となります。これは、現在および今後数年間における、継続的かつ高性能なAIイノベーションのための新たな基準となります。
Red Hat Summit
Red Hat Summit のキーノートセッションに参加して、Red Hat の幹部、顧客、パートナーからの最新情報をお聞きください。
- エンタープライズ AI に合わせた最新のインフラストラクチャ 5月20日、東部夏時間8時間~10時間()YouTube を)
- ハイブリッド クラウドは、ビジネス イノベーションを推進するために進化します 5月21日、東部夏時間8時間~9時間30分()YouTube を)


