久久精品免费看国产成人,四虎国产精品亚洲一区久久,伊人精品久久久7777,成人欧美一区二区三区在线,99精品国产福利一区二区,亚洲精品成人毛片久久久,久久精品99精品免费观看 ,99热久久这里只有精品免费,久久精品免费一区二区三区

SuperX發布旗艦AI服務器XN9160-B300,算力和容量提升50%
來源:財訊網 發布時間:2025-10-07 20:57:14

10月2日,全球領先的人工智能基礎設施供應商Super X AI Technology Limited(納斯達克代碼:SUPX,以下簡稱“SuperX”)正式推出其最新旗艦產品——SuperX XN9160-B300 AI服務器。服務器搭載NVIDIA Blackwell GPU(B300),旨在滿足AI訓練、機器學習(ML)和高性能計算(HPC)等工作負載對可擴展、高性能計算日益增長的需求。

此次XN9160-B300 AI服務器的發布,系統專為極致性能而設計,集成了先進的網絡功能、可擴展的架構和高能效設計,能夠為關鍵任務型數據中心環境提供有力支持。不僅是SuperX技術實力的集中展現,更是其AI基礎設施戰略路線圖上的一個關鍵里程碑,標志著SuperX正全力推動計算能力向新的巔峰邁進,以賦能全球企業及研究機構探索更廣闊的人工智能前沿。

極致性能:可用于萬億參數模型百億億次計算

在AI模型參數呈指數級增長、科學模擬復雜度日益攀升的今天,傳統計算架構已面臨瓶頸。在此背景下,SuperX XN9160-B300 AI服務器專為加速大規模分布式AI訓練和AI推理工作負載而打造,為高強度、高需求的應用提供極致的GPU性能。

公開資料顯示,SuperX XN9160-B300 AI專為企業級AI和HPC環境設計,將超級計算機級別的性能與高能效、可擴展的架構相結合,以緊湊的、數據中心就緒的形態,提供關鍵任務所需的能力。服務器被構建為一個高度可擴展的AI節點,其核心是搭載8顆NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模組。這一配置為下一代AI工作負載提供了Blackwell架構的峰值性能。

尤為引人注目的是,NVIDIA Blackwell Ultra架構實現了決定性的性能飛躍。NVIDIA數據顯示,與Blackwell相比,Blackwell Ultra每塊芯片的NVFP4計算能力提升了驚人的50%,同時HBM容量也增加了50%,從而能夠在不影響效率的情況下實現更大的模型和更快的吞吐量。

極致性能決定了SuperX XN9160-B300 AI服務器可適用于構建和運營萬億參數基礎模型,能夠執行百億億次(Exascale)級科學計算。針對GPU密集型任務,SuperX XN9160-B300 AI服務器進行了優化,在基礎模型訓練與推理,包括強化學習(RL)、蒸餾技術和多模態AI模型等領域表現卓越,同時也能為氣候建模、藥物發現、地震分析和保險風險建模等HPC工作負載提供超高性能。

值得一提的是,XN9160-B300在顯存容量方面也實現了重大突破。通過8顆GPU,該服務器提供了高達2,304GB的統一HBM3E顯存(每顆GPU 288GB)。這一龐大的顯存池對于對于消除內存卸載、支持更大模型的駐留、以及管理高并發、長上下文的生成式AI和大型語言模型所需的海量鍵/值緩存至關重要。

強大系統:高效擴展設計和強大電源基礎

對于當前動輒需要數千億甚至萬億參數的基礎模型,單機服務器性能再強,若無法高效擴展,也難以應對真正的AI工廠級任務。SuperX XN9160-B300在系統級互聯設計上就已經深謀遠慮。

通過多達8個用于InfiniBand的800Gb/s OSFP端口或雙400Gb/s以太網,能夠輕而易舉實現系統擴展。這些端口提供了將服務器連接成大型AI工廠和SuperPOD集群所需的高速、低延遲通信。而通過第五代NVLink互連技術進一步確保了板載的8顆GPU無縫通信,構建了同一個單一、強大的加速器,從而能夠滿足超大規模模型訓練和分布式推理的需求。

為了確保GPU計算潛力得到充分釋放,XN9160-B300構建了一個無比強大的主機平臺。該平臺配備雙路英特爾?至強?6處理器,無論是性能核心的高單核性能,還是能效核心的高并發處理能力,都為GPU提供了極致的數據預處理和供給效率。

內存子系統配置同樣毫不妥協,高達32個DDR5 DIMM插槽,支持高達8000MT/s的速度(MRDIMM),確保了主機平臺在處理海量數據時不會成為GPU處理的瓶頸,為系統持續滿載運算提供了穩定數據流保障。

在至關重要的供電與可靠性方面,XN9160-B300配備了12個3000W 80 PLUS Titanium的冗余電源。這不僅為系統在持續峰值負載下的穩定運行提供了充足電力保障。此外,系統還提供了多個PCIe Gen5 x16插槽和全面的存儲選項,包括8個2.5英寸Gen5 NVMe熱插拔硬盤位,以滿足高速數據緩存和存儲需求。

精準定位:突破AI邊界賦能關鍵行業

SuperX發布的XN9160-B300 AI服務器,專為那些致力于突破AI邊界的組織而設計,能夠滿足全球各行業對最大規模、下一代模型訓練探索以及超低延遲推理的嚴苛需求,以卓越的硬件性能為基石,為前沿科技與應用創新提供強大支撐。

在超大規模AI工廠領域,XN9160-B300能夠為云服務提供商和大型企業構建并運營萬億參數級基礎模型的核心算力單元。其強大的并行計算能力與高帶寬網絡互聯特性,能夠有效支撐高并發AI推理引擎的穩定運行,滿足海量用戶實時訪問的需求提供可靠保障。

面向科學模擬與研究,SuperX該款服務器可用于百億億次(Exascale)級科學計算。無論是進行先進的分子動力學模擬,還是構建覆蓋工業全流程或生物數字孿生,XN9160-B300都能提供以往難以企及的計算精度與效率,從而顯著加速科研探索進程。

在金融服務行業,該服務器能夠用于實時風險建模與高頻交易模擬,幫助機構在復雜市場環境中快速決策。同時,其優異的推理性能確保部署用于金融分析的復雜大型語言模型能夠實現超低延遲響應,提升客戶體驗與業務自動化水平。

對于生物信息學與基因組學的研究,XN9160-B300憑借其巨大的顯存容量,可以輕松加速海量基因組測序、藥物發現流程以及需要B300巨大顯存容量的蛋白質結構預測。

此外,在全球系統建模方面,XN9160-B300適用于需要極致算力進行全球氣候和天氣建模及高精度災害預測的國家氣象和政府機構,從而能夠實現更為精準的中長期氣候預測與極端災害預警,為應對氣候變化和保障社會安全提供科學依據與技術支撐。

當前,隨著在AI算力模型規模不斷突破、科學探索日益深邃,我們正站在一個新時代的起點——從前沿科學的突破,到日常生活的變革。而XN9160-B300 AI服務器的發布,意味著SuperX憑借其前瞻性的人工智能基礎設施布局和強大的產品化能力,已經拿到了智能時代的關鍵鑰匙,未來還將繼續走在人工智能行業前沿。

免責聲明:

以上新聞不代表公司觀點,是作者基于當前可獲得的信息,對事件做出的分析和預測,受限于各種風險和不確定性,實際結果可能因多種因素而與以上描述存在重大差異,不構成對任何人的投資建議。


標簽:

猜你喜歡