繼谷歌雲TPU之後,AWS也推出 AI 晶片 Inferentia
亞馬遜旗下的雲端計算公司今天釋出了一款專為機器學習設計的新型處理器晶片,又一次印證了這家公司在雲端計算領域雄心勃勃。
這款晶片名為Inferentia,將通過AWS的EC2計算服務以及SageMaker AI服務和同樣在今天宣佈的新服務:Amazon Elastic Inference來提供。該晶片旨在加快由機器學習模型執行的推理或預測過程,幫助支援亞馬遜的Alexa等服務和自動駕駛汽車。
新晶片由幾年前亞馬遜收購的晶片設計公司Annapurna Labs設計,聲稱與圖形處理單元(GPU,主要是英偉達的晶片)相比具有延遲低、具有成本效益的優點,近些年來GPU一直是機器學習的首選晶片。
預計Inferentia將於明年上市。AWS執行長安迪•傑西(如圖)在拉斯維加斯舉行的re:Invent大會上作主題演講時簡要介紹了它,不過設計或規格方面透露的細節很少,只知道它與多種型別的資料和所有主要的框架(比如PyTorch、TensorFlow和MXNet)相容。它還將提供每秒數百萬億次運算(TOPS),多個結合起來可以達到數千TOPS的效能。
這款晶片是AWS在近日內宣佈的第二款晶片。週一晚上,公司宣佈推出名為Graviton的晶片,該晶片可通過AWS的EC2雲端計算服務提供給其雲客戶。它基於用在智慧手機、網路路由器及其他眾多裝置中的Arm架構,現正逐漸進入到計算機伺服器,比如AWS為用於其龐大資料中心而設計的伺服器。
市場研究機構Moor Insights & Strategy的總裁兼首席分析師帕特里克•穆爾黑德(Patrick Moorhead)說:“AWS宣佈開發自己的支援許多框架的機器學習推理晶片,此舉意義重大。與谷歌雲不同,AWS服務廣泛使用,並具有彈性。針對推理這種應用,AWS現在提供CPU、GPU、FPGA以及現在自己的ASIC。”
過去這幾年已湧現出了一系列針對某些應用而優化的新晶片,尤其是針對機器學習和AI。比如說,谷歌在2016年宣佈了其首款定製的機器學習晶片:張量處理單元(TPU),讓客戶可以通過雲訪問TPU晶片。晶片設計復興這個現象的一個原因是,需要所謂的超大規模計算公司(擁有大量龐大資料中心)通過調整改動來榨取硬體的最後一點效率。
這一切已讓資料中心的領導者英特爾公司處於守勢,它已收購了Altera和Movidius等多家公司,為其核心的X86產品線增加新的晶片設計和專業技術。英特爾還調整了X86晶片(比如最新的至強產品線),以便更好地處理機器學習及其他任務。
亞馬遜還宣佈推出Elastic Inference,這是一種由GPU提供支援的深度學習推理加速服務。傑西表示,通過為客戶提供配置實際需要的AWS計算例項這種方案,可以將處理推理任務的成本最多節省75%。
此外,AWS還發布了許多與AI有關的服務和產品,包括Deep Racer(上圖),這種自動駕駛的模型汽車可供開發人員用來學習瞭解機器學習的一個分支:強化學習。預訂價為249美元。
AWS計劃向客戶提供Inferentia,但它與谷歌的產品全然不同。不像TPU是為訓練機器學習模型而設計的,Inferentia是為推理而設計的,而推理是系統在訓練結束後所做的決策。通過處理成千上萬張已作標記的貓照片對模型進行訓練後,推理這一環負責識別影象中的貓。
谷歌現推出了第三代TPU,它一直將其作為一項雲服務提供給客戶。亞馬遜在雲市場的最大對手:微軟Auzre還沒有推出自己的處理器。三大巨頭都將用於機器學習工作負載加速的英偉達GPU作為一項服務來提供;AWS和Azure還提供用於機器學習的FPGA。
傑西解釋,生產用於機器學習的加速處理器的公司(頭號廠商是英偉達)將注意力主要放在針對訓練來優化處理器上,就是為何AWS決定要專注於設計一款更好的推理晶片。