Supermicro宣佈推出GPU伺服器
Supermicro宣佈推出具有多達20個NVIDIA Tesla T4加速器的AI Inference優化GPU伺服器
超微計算機公司宣佈增加其GPU優化伺服器系列。新的SuperServer 6049GP-TRT提供了加速現代AI各種應用所需的效能。為了獲得最大的GPU密度和效能,這款4U伺服器最多支援20個NVIDIA Tesla T4 Tensor Core GPU,3 TB記憶體和24個熱插拔3.5英寸驅動器。該系統還具有4個2000瓦鈦級效率(2 + 2) )冗餘電源,有助於優化電源效率,正常執行時間和可維護性。
“Supermicro正在進行創新,以應對由5G,智慧城市和物聯網裝置等技術驅動的迅速崛起的高吞吐量推理市場,這些技術正在產生大量資料並需要實時決策,”總裁兼執行長Charles Liang說。 Supermicro。“我們認為NVIDIA TensorRT和基於Turing GPU加速器的新圖靈架構相結合,是這些新的苛刻和延遲敏感工作負載的理想組合,並且正在我們的GPU系統產品線中積極利用它們。”
NVIDIA公司加速計算副總裁兼總經理伊恩巴克說,企業客戶將受益於Supermicro新型高密度伺服器中NVIDIA Tesla T4 GPU的吞吐量和功效的大幅提升。“隨著AI推理構成了資料中心工作負載中越來越大的一部分,這些Tesla T4 GPU平臺提供了極其高效的實時和批量推理。”
Supermicro效能優化的4U SuperServer 6049GP-TRT系統可支援多達20個PCI-E NVIDIA Tesla T4 GPU加速器,大大提高了GPU伺服器平臺的密度,適用於支援深度學習和推理應用的廣泛資料中心部署。隨著越來越多的行業部署人工智慧,他們將尋找針對推理優化的高密度伺服器。6049GP-TRT是引領從深度學習,神經網路到將人工智慧部署到面部識別和語言翻譯等實際應用的過渡的最佳平臺。
Supermicro擁有一整套4U GPU系統,支援超高效的Tesla T4,旨在加速任何橫向擴充套件伺服器的推理工作量。Tesla T4中的硬體加速轉碼引擎可實時提供多個高清視訊流,並允許將深度學習整合到視訊轉碼管道中,從而實現一類新的智慧視訊應用。由於深度學習塑造了我們的世界,就像歷史上沒有其他計算模型一樣,更深層次和更復雜的神經網路都在指數級更大的資料量上進行訓練。為了實現響應,這些模型部署在功能強大的Supermicro GPU伺服器上,為推理工作負載提供最大吞吐量。