回到首頁
個人.家庭.數位化 - 數位之牆



產業動態 Red Hat AI 3助生產環境的AI工作負載實現分散式AI推論
經典公關 本新聞稿發佈於2025/10/15,由發布之企業承擔內容之立場與責任,與本站無關

Red Hat 的混合雲端原生 AI 平台能簡化 AI 工作流程、提供強大且新穎的推論功能,不僅能為大規模代理式 AI 奠定基礎,更協助 IT 團隊與 AI 工程師加速創新、提升效率

 
■ 發布/輪播新聞稿 新聞稿直達14萬電子報訂戶刊登新聞稿:按此
 
Red Hat 今宣布推出 Red Hat AI 3,是 Red Hat 企業級 AI 平台的一大進展。此平台匯集 Red Hat AI Inference Server、Red Hat Enterprise Linux AI(RHEL AI)與 Red Hat OpenShift AI 的最新創新成果,不僅能簡化大規模高效能 AI 推論的複雜流程,更賦能企業得以將工作負載更順暢地從概念驗證推向生產環境,同時改善 AI 驅動應用程式的協作。

企業將 AI 從實驗階段推向實際應用時,往往面臨資料隱私、成本控管及多樣化模型管理等重大挑戰。根據麻省理工學院 NANDA 計畫的《The GenAI Divide: State of AI in Business》報告指出,生產環境 AI 的現實情況是,儘管企業投資金額高達 400 億美元,仍有約 95% 的企業未能從中獲得可衡量的財務報酬。

為應對上述挑戰,Red Hat 推出 Red Hat AI 3,專為資訊長和 IT 主管提供一致且統一的體驗,協助他們最大化加速運算技術的投資效益。企業不僅能於跨混合式或多供應商的環境中快速擴展與部署 AI 工作負載,還能透過單一通用平台,提升團隊在新一代 AI 代理等專案上的協作效率。Red Hat AI 3 以開放標準為基礎,能滿足企業在 AI 發展過程中各階段的需求,支援任何硬體加速器上的任何模型且適用於各種環境,包含資料中心、公有雲、主權 AI 環境,抑或是最遙遠的邊緣端。

從訓練到「執行」:企業 AI 推論的轉變
企業將 AI 舉措推向生產環境後,其重心將從模型的訓練與調校移轉至推論,亦即企業 AI 的「執行」階段。Red Hat AI 3 著重於可擴展且符合成本效益的推論能力,奠基於廣受好評的 vLLM 與 llm-d 社群專案,並結合 Red Hat 自身卓越的模型最佳化技術,為大型語言模型提供生產環境級的服務。

為協助資訊長充分利用高價值硬體加速資源,Red Hat OpenShift AI 3.0 正式推出 llm-d,重新定義 LLM 在 Kubernetes 上的原生執行方式。llm-d 巧妙結合經驗證的 Kubernetes 調度價值與 vLLM 的卓越效能,實現智慧分散式推論,並結合多項關鍵開源技術,包括 Kubernetes Gateway API Inference Extension、NVIDIA Dynamo 低延遲資料傳輸函式庫(NIXL),以及 DeepEP Mixture of Experts通訊函式庫,賦予企業:

 利用分散式服務降低成本、提升效率,實現更高的每美元效能。
 採用專為 AI 工作負載的多變特性而設計的智慧推論感知負載平衡器,有效改善回應時間與延遲。
 藉由預定的「Well-lit Paths」簡化於 Kubernetes 上大規模部署模型的流程,實現簡易營運與最高可靠性。
 透過跨平台支援,在不同的硬體加速器(包括 NVIDIA 與 AMD)上部署 LLM 推論,最大化靈活性。

llm-d 以 vLLM 為基礎擴展,將其從單節點的高效能推論引擎,進化為分散式、一致且可擴展的服務系統,專門協助企業達成可預測的效能、可衡量的投資報酬率(ROI),並規劃更有效的基礎架構。所有強化功能皆為因應處理高度變動的 LLM 工作負載,以及如混合專家模型(Mixture-of-Experts,MoE)等巨型模型的挑戰而設計。

統一平台,實現協作式 AI
Red Hat AI 3 提供統一彈性體驗,專為生產環境中生成式 AI 解決方案的協作需求打造。其設計旨在透過促進團隊協作與統一工作流程,並為企業創造實質價值。平台工程師和 AI 工程師可藉由 Red Hat AI 3 這個單一平台執行 AI 策略。新功能著重於提升從概念驗證擴展至生產環境所需的生產力與效率。

 模型即服務功能奠基於分散式推論之上,IT 團隊能作為企業自己的 MaaS 供應商,集中管理常用模型並為 AI 開發者與 AI 應用程式提供依據需求存取服務。上述功能不僅有助於成本控管,亦能應對因隱私權或資料安全顧慮而無法在公有 AI 服務上執行的應用情境。
 平台工程師可透過 AI 中心探索、部署與管理基礎 AI 資產,其提供內含模型精選目錄的集中式管理中心,涵蓋經驗證與最佳化的生成式 AI 模型、模型生命週期管理登錄檔,以及可配置與監控運行於 OpenShift AI 上所有 AI 資產的部署環境。
 生成式 AI 工作室為 AI 工程師打造動手實作的環境,在此能與模型互動並加速生成式 AI 應用程式的原型開發。透過 AI assets endpoint 功能,工程師能輕鬆探索與使用可用的模型與 MCP 伺服器(用以簡化模型與外部工具的整合流程)。內建的 playground 則提供互動式且無狀態的環境,可用於模型實驗、提示詞測試與參數微調,支援如對話與檢索增強生成等應用場景。
 Red Hat AI 3 亦同步整合全新且經 Red Hat 驗證與最佳化的模型以簡化開發流程。精選內容包括如 OpenAI 的 gpt-oss、DeepSeek-R1 等受歡迎的開源模型,以及 Whisper(語音轉文字)和 Voxtral Mini(用於語音代理)等專業模型。

為新一代 AI 代理奠定基石
AI 代理即將顛覆應用程式的建構方式,其複雜的自動化工作流程將對推論能力帶來嚴苛的要求。Red Hat OpenShift AI 3.0 版本不僅強化推論能力,更帶來專注於代理管理的新版或強化功能,持續為可擴展的代理式 AI 系統奠定穩固基礎。

為加速代理的建立與部署,Red Hat 推出基於 Llama Stack 的統一應用程式介面層,助力讓開發流程與 OpenAI 等業界標準保持一致。此外,為提倡更開放、更具互通性的生態系,Red Hat 已率先採用模型上下文協定(MCP),此強大的新興標準能簡化 AI 模型與外部工具的互動方式,是現代 AI 代理不可或缺的基礎功能。

Red Hat AI 3 引入以既有的 InstructLab 功能所打造、模組化且可擴充的全新模型客製化工具組。開發者可藉由專用的 Python 函式庫獲得更大的靈活性及掌控度。此工具組是由多項開源專案驅動,其中包括用於資料處理的 Docling,可將非結構化文件轉換為 AI 模型可讀取的格式,大幅簡化資料匯入流程。此外,該工具組亦支援用於合成資料生成的彈性框架,以及用於 LLM 微調的訓練中心。AI 工程師可透過整合的評估中心監測並驗證訓練成果,協助企業有自信地運用專有資料,以獲得更準確且更具相關性的 AI 成果。

- 新聞稿有效日期,至2025/11/15為止


聯絡人 :Jenny
聯絡電話:0277187777*524
電子郵件:TA2@apexpr.com.tw

上一篇:Red Hat AI 3助生產環境的AI工作負載實現分散式AI推論
下一篇:Check Point發布製造業安全報告,台灣成亞太攻擊熱點



 
搜尋本站


最新科技評論

我在中國工作的日子(十四)阿里巴巴敢給股票 - 2023/07/02

我在中國工作的日子(十三)上億會員怎麼管理 - 2023/06/25

我在中國工作的日子(十二)最好的公司支付寶 - 2023/06/18

我在中國工作的日子(十一)兩個女人一個男人 - 2023/06/11

我在中國工作的日子(十)千團大戰影音帶貨 - 2023/06/04

我在中國工作的日子(九)電視購物轉型電商 - 2023/05/28

我在中國工作的日子(八)那些從台灣來的人 - 2023/05/21

我在中國工作的日子(七)嘉丰資本擦身而過 - 2023/05/14

我在中國工作的日子(六)跟阿福有關的人們 - 2023/05/07

■ 訂閱每日更新產業動態
RSS
RSS

當月產業動態

Information

 

 


個人.家庭.數位化 - 數位之牆

欲引用本站圖文,請先取得授權。本站保留一切權利 ©Copyright 2023, DigitalWall.COM. All Rights Reserved.
Question ? Please mail to service@digitalwall.com

歡迎與本站連結!