AI 一週熱聞:周志華獲 IEEE 唯一技術成就獎;英偉達釋出最小 AI 計算機
-
賈揚清正式宣佈加盟阿里巴巴
-
僅售 99 美元!英偉達釋出最小迷你 AI 計算機 Jetson Nano
-
阿里達摩院開發 AI“二哈”對付騷擾電話
-
Uber 獲軟銀 10 億美元投資,自動駕駛部門估值達 100 億美元
-
Facebook 開源服務 27 億人的 AI 硬體“三套件”
-
周志華獲 IEEE 2019 年唯一 Edward J.McCluskey 技術成就獎
-
機器人團隊協作,用一根繩子攀爬懸崖
-
Facebook 為 AI 晶片構建標準容器
-
艾倫人工智慧研究所:去偏誤演算法並沒有想象中有用
賈揚清正式宣佈加盟阿里巴巴
今天,阿里巴巴達摩院官方賬號正式宣佈 Caffe 之父、前 Facebook AI 架構總監賈揚清加入阿里,擔任技術副總裁崗位,領導大資料計算平臺的研發工作。賈揚清的個人領英顯示其已於 3 月份加入阿里巴巴,至今將近一個月。
賈揚清以深度學習框架 Caffe 作者的身份聞名。清華本碩畢業後,在加州大學伯克利分校取得電腦科學博士學位,先後工作於新加坡國立大學、NEC 美國實驗室、谷歌大腦,2016 年加入 Facebook 擔任研究科學家,任 Facebook AI 架構總監,負責前沿 AI 平臺開發及人工智慧研究。
賈揚清之前曾這樣評價阿里達摩院:
我在阿里有很多志同道合的朋友,比如說同在伯克利讀博的 Xiaofeng Ren(以前亞馬遜的首席研究員),當年一起在清華摸爬滾打的蓋坤(阿里的技術大牛靖世)等等。
白駒過隙,現在更多的本土公司開始加入人才培養和科研的第一線,這對於 AI 的發展是振奮人心的好事。(倒退幾年,如果我還在讀研究生的話,又多了一個實習的好去處呢。)
僅售 99 美元!英偉達釋出最小迷你 AI 計算機 Jetson Nano
3 月 17 日,在 GTC 2019 上,英偉達 CEO 黃仁勳釋出了今年的新產品,其中最引人注意點當屬人工智慧計算機 Jetson Nano。這款裝置可以建立數百萬個智慧系統,支援高解析度感測器,可以並行處理多個感測器,並可在每個感測器流上執行多個現代神經網路。它還支援許多流行的 AI 框架,使開發人員可以輕鬆地將他們喜歡的模型和框架整合到產品中。
Jetson Nano 的主要引數包括:
-
GPU:基於 128 核 NVIDIA Maxwell? 架構的 GPU
-
CPU:四核 ARM?A57
-
視訊:4K @ 30 fps(H.264 / H.265)/ 4K @ 60 fps(H.264 / H.265)編碼和解碼
-
相機:MIPI CSI-2 DPHY 通道,12x(模組)和 1x(開發人員套件)
-
記憶體:4 GB 64 位 LPDDR4; 25.6 千兆位元組 / 秒
-
連線:千兆乙太網
-
作業系統支援:適用於 Tegra? 的 Linux
-
模組尺寸:70mm x 45mm
-
開發者套件尺寸:100mm x 80mm
售價方面,Jetson Nano 有兩個版本:面向開發人員、製造商和發燒友的 99 美元開發套件以及面向希望建立大眾市場邊緣系統的 129 美元版本。
此外,黃仁勳在會上還發布了影象處理晶片 CUDA-X AI,旨在加速資料科學工作負載,使資料更有用。之後,黃仁勳釋出 OMNIVERSE,一個用於多工具工作流程的開放式互動式 3D 設計協作平臺。此外,為了滿足資料中心和雲圖形應用不斷增長的需求,英偉達釋出 RTX SERVER POD 和 RTX 伺服器。同時,會上還發布了為開發人員提供 Isaac 應用程式的工具包 NVIDIA Isaac SDK,以及 Level 2+ 的自動駕駛解決方案 NVIDIA DRIVE AP2X。
阿里達摩院開發 AI“二哈”對付騷擾電話
3.15 晚會曝光了可以一年撥出 40 億次的機器人之後數小時,阿里巴巴達摩院開發的防騷擾電話 AI“二哈”一炮而紅。阿里稱應該把機器人的問題交給機器人對付,當用戶在手機上開通了這項服務後,在接到騷擾來電時,使用者可以直接轉接給機器人接聽,可達到以假亂真的效果。
阿里巴巴 AI 實驗室語音助手首席科學家、阿里 AI 北京研發中心負責人,前微軟亞洲研究院首席研究員聶再清表示,開發“二哈”是因為其對各種騷擾電話不勝其煩。這項服務背後主要是智慧聊天技術,通過深度強化學習來學習對話策略,理解使用者請求,同時用強大的知識圖譜製作聊天的知識點,通過跟使用者對話,把知識圖譜裡的知識灌輸給使用者,同時也引導使用者反饋。
在放出“二哈”工作的演示視訊後,該技術便獲得了不少專家的肯定。其後,阿里還在支付寶小程式和天貓精靈 App 推出開放體驗。
Uber 獲軟銀 10 億美元投資,自動駕駛部門估值達 100 億美元
據外媒報道,Uber 自動駕駛部門即將獲得來自軟銀願景基金的投資,據悉,雙方的談判已經進入了最後階段。
如果順利獲得 10 億美元融資,Uber 自動駕駛部門的估值可達 50-100 億美元。
對於該訊息,Uber 和軟銀髮言人均未給出迴應。
此前,Uber 自動駕駛汽車每個月的開銷高達 2000 萬美金,而且還發生了事故致人死亡,甚至有傳聞稱 Uber 曾有意徹底放棄自動駕駛。Uber 獲得資金可幫助其自動駕駛部門迎來一輪跨越式發展。
Facebook 開源服務 27 億人的 AI 硬體“三套件”
在 3 月 15 日的開放計算專案全球峰會上,Facebook 釋出並開源了 3 款 AI 硬體,分別是面向訓練的 Zion、面向推理的 Kings Canyon 及面向視訊轉碼的 Mount Shasta。
其中,Zion 專為處理包括 CNN、LSTM 和 SparseNN 在內的神經網路架構的“頻譜”而量身定製,包括三個部分:擁有 8 個 NUMA CPU 插槽的伺服器;配備了 8 加速器晶片組,以及一個廠商中立(vendor-agnostic )的 OCP 加速器模組(OAM)。
Kings Canyon 專為推理任務而設計,共分四個部分:Kings Canyon 推理 M.2 模組;Twin Lakes 單插槽伺服器;Glacier Point v2 載卡;以及 Facebook 的 Yosemite v2 機箱。同時,Facebook 還表示正在與 Esperanto、Habana、英特爾、Marvell 和高通公司合作,開發能夠同時支援 INT8 和高精度 FP16 工作負載的 ASIC 晶片。
Mount Shasta 是專為視訊轉碼而開發的 ASIC,由 Facebook 與 Broadcom、Verisilicon 合作開發。在 Facebook 的資料中心內,它將被安裝在帶有整合散熱器的 M.2 模組上,位於可容納多個 M.2 模組的 Glacier Point v2(GPv2)載板中。
Facebook 表示,平均而言,預計這些晶片的效率會比目前的伺服器“高出許多倍”。它的目標是在 10W 功率範圍內,以 60fps 速度輸入流編碼效率至少比 4K 高出一倍。
周志華獲 IEEE 2019 年唯一 Edward J.McCluskey 技術成就獎
3 月 16 日,IEEE 計算機學會宣佈 2019 年 Edward J. McCluskey 技術成就獎花落南京大學計算機與人工智慧教授周志華,以表彰他“對機器學習和資料探勘的貢獻”。值得注意的是,周志華教授是今年唯一的獲獎者。
周志華是南京大學人工智慧學院院長、南京大學電腦科學與技術系主任,同時還是 CCF 會士、常務理事、人工智慧與模式識別專委主任、ACM / AAAS / AAAI / IEEE / IAPR Fellow,歐洲科學院外籍院士。此外,他還是大家熟悉的“西瓜書”《機器學習》的作者,並擔任京東人工智慧研究院學術委員會委員,任京東研究院南京分院總顧問。他的研究領域包括周志華教授的研究方向包括人工智慧、機器學習、資料探勘等。
Edward J. McCluskey 技術成就獎起源於 1985 年,為了獎勵在過去 10-15 年間為計算機資訊科學和工程領域做出突出創新貢獻的人。獎項的名字來自學會第一任主席 Edward McCluskey,至今有 84 名獲獎者,此前,聯想 CTO 芮勇、喬治亞理工大學教授 Ling Liu、前金山軟體 CEO 張巨集江、2017 年圖靈獎得主 David Patterson 等都是這一獎項得主。
機器人團隊協作,用一根繩子攀爬懸崖
日本東京大學的研究人員建立了一支雙機器人團隊,通過一根繩子,機器人可以完成繪製周圍環境並穿越高低起伏地形等任務,這使得空中無人駕駛飛行器可以輔助地面車輛。
無人機使用英偉達 Jetson TX2 晶片進行板載本地化、對映和導航。這架無人機配備了攝像頭、飛行時間感測器和用於高度測量的鐳射感測器。地面車輛使用 UP Core 處理器“基於商用 Caterpillar 平臺”。地面機器人執行機器人作業系統的副本,機載無人機使用該副本連線到機器人作業系統。
智慧機器人用一根“笨笨”的繩索攀爬:機器人這樣完成協作:無人機飛到 UGV 上方並繪製地形圖,將資料傳送到地面機器人,以識別周圍環境。當機器人檢測到障礙物時,UAV 將繫繩(末端有一個抓鉤)纏繞在一個高大的物體上,UGV 從固定好的繩子向上爬。
真實測試:研究人員在一個小規模的真實環境中進行測試,結果表明這套方法很奏效,但還是存在一些問題:“由於缺乏感測器,我們沒有 [繫繩] 張力控制機制,繫繩需要從一開始就延長,結果,UGV 經常被繩子纏住。”
重要性:將來,我們可以想象到各種不同型別的機器人相互協作模式,發揮各自的專長作為一個整體協作,1+1 將大於 2。但這個實驗表明我們還處於早期階段,還需要解決一些問題。
閱讀更多:無人機 / UGV 自主合作:無人機通過連線繫繩協助 UGV 攀登懸崖 https://arxiv.org/abs/1903.04898
Facebook 為 AI 晶片構建標準容器
目前,許多人工智慧組織正在考慮建立資料中心,這些資料中心由許多不同型別的伺服器組成,執行 CPU、GPU、AI 定製晶片等不同型別的處理器。Facebook 希望將用於容納 AI 加速器晶片的機箱型別標準化,並提供了 Open Compute Project(OCP)開源硬體原理圖和規範——一個超大規模資料中心運營的伺服器裝置型別標準化方案。Open Compute Project(OCP)是 Facebook 在 2011 年 4 月發起的一個資料中心開放架構技術發展組織,目前成員包括 Intel、Red Hat、Facebook、Mozilla、Rackspace、NTT Data、百度、高盛以及 Google 等。
Facebook 提出的 OCP 加速器模組支援 12V 和 48V 輸入,並且可以為模組中的晶片提供高達 350W(12V)或高達 700W(48V)的 TDP(熱設計功率)。這是一個有用的特性,因為許多新的加速器晶片都需要大量的電力(任何消耗 450W 以上 TDP 伺服器都需要用液體冷卻)。它可以支援每個機箱內的單個或多個 ASIC,每個系統最多支援八個加速器。
設計:你可以在 Open Compute Project(OCP)更詳細地瞭解 OCP 加速器模組 https://www.opencompute.org/wiki/Server/OAM 。
重要性:隨著人工智慧進入工業化階段,我們將在 AI 裝置所需的基礎設施上投入更多資金。標準化 AI 加速器模組的需求將變大,而這種需求可能來自於亞洲的低成本原始設計製造商(ODM),它們會需要這種標準化產品。
閱讀更多:Facebook 共享加速器模組( https://code.fb.com/data-center-engineering/accelerator-modules/ )。
艾倫人工智慧研究所:去偏誤演算法並沒有想象中有用
艾倫人工智慧研究所的研究人員進行了一項分析,該分析對用於 debias 模型的一些演算法的有效性提出質疑。他們寫道:“我們認為目前的去偏誤方法主要是隱藏偏見,而不是消除它”。
研究人員用兩種不同的方法比較 embeddings:Hard-Debiased(Bolukbasi 等)和 GN-GloVe(Zhao 等),兩者都經過修改,以減少訓練模型中明顯的性別偏見。他們試圖分析這些方法中偏誤和去偏誤版本之間的差異,主要是通過分析兩個版本的 embeddings 之間的不同空間關係。他們發現,這些去除方法主要是把問題轉移到模型的其他部分,因此,儘管它們可能會修復一些偏誤,但其他偏誤仍然存在。
去偏誤失敗的三個因素:
- 具有強烈的預先性別偏見的詞語很容易聚集在一起
- 因為社會刻板印象導致隱含性別的詞語(例如接待員、髮型師、船長)仍然容易與其他性別相同的隱性詞彙分到一組
- 具有根深蒂固的預先偏見的詞,其隱含性別很容易基於單一向量進行預測
重要性:作者認為,“雖然這些去除偏誤的方法在消除性別方向方面效果很好,但是去除方法基本上是表層化的。刻板印象和從語料庫中學到的偏見在嵌入空間中根深蒂固。“
此類研究表明,處理偏見問題將比人們預期的要困難,並強調了人工智慧在偏見上有多大程度來自現實世界的資料,而這些系統正在接受包含此類偏見的訓練。
閱讀更多:給豬塗口紅(西方諺語:把醜陋的事物變美好而做的無用功):去偏誤方法掩蓋了 Word 嵌入中的系統性別偏見,但不能根除( https://arxiv.org/abs/1903.03862 )。
作者 Jack Clark 有話對 AI 前線讀者說:我們對中國的無人機研究非常感興趣,如果你想要在我們的週報裡看到更多有趣的內容,請傳送郵件至:jack@jack- clark.net 。