Nvidia釋出用於AI驅動服務的高速資料中心平臺
Nvidia的GPU晶片已經成為機器學習蓬勃發展的基礎,機器學習利用模擬大腦工作方式的軟體,讓計算機能夠獨立學習。GPU可以並行執行很多工,這使其在語音和影象識別、電影推薦和自動駕駛汽車領域實現了一系列突破。
近日,Nvidia對其機器學習產品進行升級,推出一款新的資料中心晶片和軟體,旨在加速這些服務並實現新的服務,例如人與機器之間更自然的語言互動。
特別是,這個名為TensorRT Hyperscale Inference Platform的平臺專注於“推理”,也就是執行深度學習神經網路模型的過程。該模型基於得到的新資料來推斷任務以及執行任務。與訓練模型(通常需要更多處理能力)不同,推理通常要使用內部有標準CPU的伺服器。
本週四在東京舉行的Nvidia GPU技術大會上,Nvidia執行長黃仁勳及其高管宣佈推出了這幾款新產品。首先,他釋出了名為Tesla T4的小型低功耗晶片,該晶片採用所謂的Turing Tensor Core設計用於推理。作為當前特斯拉P4的下一代,T4擁有2560個核心,每秒可執行高達260萬億次操作。
黃仁勳還宣佈對TensorRT軟體進行更新,該軟體可讓處理速度比CPU快40倍,它包括一個TensorRT 5推理優化器和Tensor RT推理伺服器,一個軟體“容器”中的微服務,可以執行主流的人工智慧軟體框架,並與容器編排器Kubernetes和Docker整合,後者可在Nvidia的GPU Cloud上使用。
Nvidia副總裁、加速業務總經理Ian Buck解釋說,目前資料中心內有用於各種任務的軟體,如影象識別、搜尋和自然語言處理,因此效率不高。他說,Nvidia新推出的推理平臺,讓應用可以使用相同的架構和軟體加速應用。例如,Google將把T4新增到其公有云中,主流伺服器製造商表示他們也會使用這個平臺。
例如Nvidia稱,使用GPU進行推理已經幫助微軟的Bing搜尋引擎將延遲提高了60倍,SAP為廣告客戶提供的實時品牌影響資訊提高了40倍。
在這次活動上,Nvidia還宣佈推出了號稱第一個用於自主機器(從汽車到機器人再到無人機)的AI計算平臺。具體來說,有一款新的AGX嵌入式AI HPC系列伺服器,該系列產品的部分包括用於資料中心的DGX系列和用於所謂的超大規模資料中心(如Google和Facebook)的HGX系列。
另一個新產品是Jetson AGX Xavier,這是Nvidia自主機器副總裁Rob Csongor所說的開發套件,是第一臺用於機器人等應用的AI計算機。同時公佈的合作伙伴包括建築領域的Komatsu公司、自動船用和無人機車輛領域的Yamaha Motor公司以及工廠自動化視覺系統領域的佳能公司。Csongor說:“這是我們下一個大的市場,我們相信這將是變革性的。”
Nvidia還發布了一個關於AI推理市場看似不合理的數字:未來5年200億美元。這可能有助於Nvidia在未來一段時間內繼續保持長期好於預期的盈利結果。