|
美超微作為AI/機器學習、HPC、雲端、儲存和5G/邊緣領域的全方位IT解決方案供應商,於本週在美國華盛頓特區的NVIDIA GTC大會上展示先進的AI基礎設施解決方案,以及專為聯邦政府機構所設計的系統,可因應高度嚴苛的需求。美超微計劃於2026年推出下一代NVIDIA AI平台,包括NVIDIA Vera Rubin NVL144與NVIDIA Vera Rubin CPX。此外,美超微也推出了美國製造,並符合美國貿易協定法規範的系統,包括高密度2OU NVIDIA HGX B300 8-GPU系統,並擴充其伺服器產品組合,新增搭載NVIDIA GB300的Super AI Station和全新機架級NVIDIA GB200 NVL4 HPC解決方案。 美超微總裁暨執行長梁見後表示:「我們與NVIDIA的擴大性合作,以及對美國本土製造的投入,使美超微成為聯邦機構AI部署專案的可信賴合作夥伴。美超微公司總部、製造基地與研發中心皆位於矽谷核心地帶的加州聖荷西,具備極佳的技術與產能,能領先市場,為美國聯邦機構客戶提供從開發、建置、驗證到製造的完整解決方案。美超微與同樣位於矽谷的長期戰略夥伴NVIDIA進行了多年的緊密合作,進而成為美國AI基礎設施開發領域的領先企業。」 美超微正擴大其最新解決方案,包括基於NVIDIA HGX B300與B200,NVIDIA GB300與GB200,以及NVIDIA RTX PRO™ 6000 Blackwell伺服器版本GPU的系統。這些GPU可為關鍵型聯邦政府工作負載提供空前的運算效能、效率與可擴充性。 美超微聚焦美國製造,並將其列為業務核心方針之一。所有針對政府機構應用最佳化的系統均在其位於加州聖荷西的全球總部開發、建構,並經過嚴格驗證,確保完全符合TAA規範以及Buy American Act標準。此美國本土製造產能可強化供應鏈安全性,並滿足聯邦機構對高可信度與高品質技術解決方案的需求。
透過與NVIDIA的合作,美超微計劃於2026年推出NVIDIA Vera Rubin NVL144與NVIDIA Rubin CPX平台。這些平台將在AI訓練與推論效能方面超越上一代產品,助力不同組織透過卓越的運算效率,運行規模複雜的AI工作負載。 美超微也推出了其最緊湊的2OU NVIDIA HGX B300 8-GPU伺服器。此系統是基於資料中心建構組件解決方案技術,並採用OCP架構的機架級設計,可在單一機架中支援最高144個GPU,為政府機構資料中心內的大規模AI與HPC部署提供極佳的效能與可擴充性。 同時,美超微正持續擴大其專為美國政府單位應用打造的產品組合,並針對NVIDIA AI Factory for Government參考設計進行最佳化。NVIDIA AI Factory for Government是一個全堆疊、端到端的參考設計,可為地端與混合雲環境的部署,以及多種AI工作負載的管理提供導引,並符合需要高保障度之機構的合規要求。 此項專為政府機構打造的產品組合包括搭載NVIDIA GB300的Super AI Station與機架級NVIDIA GB200 NVL4 HPC解決方案。這兩項產品針對聯邦組織的應用環境進行了最佳化,提供更高的安全性、可靠性和可擴充性,進而滿足嚴格的政府單位標準。 支援全新加速型網路技術 美超微整合了最新NVIDIA技術,率先宣布其系統產品支援近期發布的NVIDIA BlueField-4 DPU與NVIDIA ConnectX-9 SuperNIC,以強化Gigascale級AI工廠的網路效能。這些新一代加速型基礎設施技術上市後,美超微可立即將這些技術整合至新的AI系統中,實現更快速的叢集級AI網路傳輸、儲存存取與資料處理Offload,強化新一代NVIDIA AI基礎設施的性能。同時,美超微透過其模組化硬體設計,可將NVIDIA BlueField-4與ConnectX-9等新技術快速整合至現有系統產品,僅需最低程度的重新設計,加速產品上市,並降低開發成本。 全新Super AI Station:為桌上型環境提供AI伺服器級的效能 美超微持續落實其領先市場的策略,率先宣布推出全新液冷式ARS-511GD-NB-LCC Super AI Station。這款系統將高規格伺服器級GB300 Superchip整合至桌邊式機體,在同類型的眾多系統內屬於業界首款機型,可提供備極強的性能。與傳統PCIe架構GPU工作站相比,該系統具有超過5倍以上的AI PFLOPS算力。ARS-511GD-NB-LCC Super AI Station也是一套完整的解決方案,能支援AI模型訓練、微調、應用程式與演算法原型設計與開發,並可部署至地端環境,實現極低的延遲和完善的資料安全性,進一步支援最高1兆參數規模的模型。這款獨立式平台的適用對象,包括無法透過傳統伺服器基礎設施進行AI開發,以及因無法取得,或在成本、隱私與延遲方面的考量,而無法使用叢集級系統或雲端AI服務的政府單位、新創企業、高科技和研究實驗室等機構。 此款Super AI Station是經過完善整合的一體化解決方案,並可部署在桌上型或機架式環境。其核心元件和性能包括: NVIDIA GB300 Grace Blackwell Ultra桌上型Superchip 最高可達784GB的Coherent Memory NVIDIA ConnectX-8 SuperNIC 針對CPU、GPU、ConnectX-8與記憶體的封閉式直達晶片液冷散熱設計 最高可達20 PFLOPS的AI效能 NVIDIA AI軟體套件 可選擇性加裝一組PCIe GPU以支援圖型與渲染加速 5U桌上型機體規格,可視需求安裝於機架內 適用標準型電源插座的1600W電源供應器 現已推出機架級GB200 NVL4 GPU加速型HPC與AI解決方案 美超微也推出了ARS-121GL-NB2B-LCC NVL4機架級平台,適用於GPU加速型HPC與AI科學應用工作負載,包括分子模擬、氣象建模、流體力學及基因組學。此平台搭載了以NVIDIA NVLink™互連的4個Blackwell GPU,以及2個NVIDIA Grace™ CPU,並透過NVLink-C2C技術將GPU和CPU進行一體性整合,可提供強大的運算效能。該平台也可在每個機架內支最高32個節點,並以NVIDIA ConnectX-8相連,為每個GPU提供最高800G的傳輸速度。ARS-121GL-NB2B-LCC NVL4可根據工作負載需求進行系統或機架級的擴充,並可選擇透過機架內或機架列間式冷卻分配單元進行液冷散熱。 這些美超微系統可支援NVIDIA AI Enterprise軟體與NVIDIA Nemotron開源AI 模型,是AI應用開發與部署的理想平台。
- 新聞稿有效日期,至2025/11/30為止
聯絡人 :Jennifer 聯絡電話:0277136779 #3000 電子郵件:jliu@hoffman.com
上一篇:Fortinet發布《2025年資安技能落差報告》
下一篇:ibo.ai 亮相公務AI創新秀以AI賦能強化便民體驗與行政效能
|