【京雄AI前沿】鄔賀銓:2030年人工智慧將帶來7萬億美元GDP增長貢獻
(京雄AI前沿訊)由中國日報和網易新聞聯合主辦的2019影響力峰會1月5日在北京舉行,本屆峰會的主題是“預見未來”。中國工程院院士鄔賀銓在“預見科技未來”環節,發表了《迎接人工智慧的未來》的演講。他表示,人工智慧對經濟效益有很大的貢獻。
鄔賀銓表示人工智慧可以改進勞動生產率,可以激發消費需求、可以提高產品質量。“有人預測2017到2030年,人工智慧對勞動生產率的貢獻超過GDP的55%。”鄔賀銓表示,“2030年人工智慧會帶來7萬億美元的GDP增長貢獻,佔GDP的26.1%。”
他認為,AI指數比較高,應用效果比較好的領域:一是醫療保健,二是汽車,三是金融服務業。
以下為鄔賀銓演講全文:
鄔賀銓:各位領導、各位專家早上好。我發言的題目是“迎接人工智慧的未來”。
我們可以看看支撐人工智慧發展的技術,比如CPU的晶片、儲存器、光纖、行動通訊、超算、大資料……用十年的時間來看,有些是60幾倍,有些是成本兩萬倍下降,光纖通訊10年100倍容量提升,行動通訊10年1000倍的速率提升,超算能力1000倍的提升,演算法我在這裡沒寫,但等會兒會說到,大資料量大概是32倍的提升。這是前幾年統計下來的網路主要裝置年均效能改進的增速。
網際網路近年已經是第50年了,50年的網際網路到現在還保持網際網路流量年增60%,這些增速也會對未來人工智慧技術的發展給予很大的影響。
現在深度神經網路,就算你寫本書告訴計算機什麼是貓什麼是狗,它也學不會,但如果像對待人類小孩的教學方式那樣,感性地把一堆貓和狗的視訊送到深度神經網路,它就會分類,分類結束後,如果照片視訊上有標籤,它就會知道分的這類是貓。如果籃子裡有個小狗,放進去,它照樣會分類為“狗”。所以深度神經網路實際上是個分類器,但你告訴它是什麼,它就學會了。
機器學習是深度神經網路的主要技術,從10年裡機器學習的論文裡可以發現現在機器學習的技術熱點,可以看到神經網路和進化程式設計等計算密集型演算法在機器學習研究中的出色表現。
AlphaGo下棋。人每天吃飯大概要輸入2500卡路里的能量,卡路里換算成焦耳大概是1000萬焦耳,下圍棋5個小時大概要消耗人類3.3兆焦耳。AlphaGo跟李世石下棋時用了1000多個CPU,176個GPU,一個CPU功率100W,1個GPU200W,換算出來是173000W(這是以秒計的),如果5小時就是3000兆焦耳,這相當於李世石用的能耗是AlphaGo能耗的千分之一,也就是說,人工智慧目前還需要很大的能量支援。
後來隔了一年,改進了AlphaGoZero,換算成TPU,它只是AlphaGo原有1/12(的能耗),用1/12的能耗跟AlphaGo下棋,100比0,當時AlphaGo還要蒐集所有的圍棋棋譜,然後訓練三個月,AlphaGoZero只需要瞭解圍棋的規則,兩個AlphaGoZero互相對應,能把所有人類沒有走過的棋譜都走完,它就能戰勝了。所以優化演算法、改進硬體,包括GPU替換CPU(提高了三倍),TPU替換GPU(提高了15到30倍)。
最近不單AlphaGoZero圍棋天下無敵,而且通過自學2個小時,還擊敗了日本的將棋(有點像中國的象棋),自學4個小時,把國際象棋也全部打贏了。
在醫學上,剛剛過去的三個月,谷歌在機器學習又開發了AlphaFold,AlphaGo的摺疊,所謂摺疊是來預測蛋白質結構的,在蛋白質結構預測的國際競賽裡,打敗了所有由人組成的各種團隊,這有什麼意義?如果能解釋蛋白質的結構,我們的很多疾病(包括癌症)可能就會找到解決辦法。所以現在很多人工智慧用在醫學上開發藥物,美國人工智慧能比醫生提早六年診斷出阿茲海默病,醫療人工智慧的器械也開始投入商用了。
除此之外我們看一看蛋白質摺疊結構,我們可以通過人工智慧將它解釋出來。
我們知道門捷列夫開發元素週期表用了很長時間,現在假設我們不知道元素週期表,利用人工智慧程式,幾個小時就可以把元素週期表重新定義出來。也就是說,人工智慧確實能做好多事。
在語音識別方面,人工智慧已經超過了人,一般人類語音識別的錯誤率是5.1%,現在百度對漢語的語音識別,微軟對應於的語音識別已經比這個水平要高了。當然,在嘈雜噪聲環境下,識別率現在也只有54%,不過人更識別不了,人還達不到這個水平。
包括人臉識別,中國上海依圖科技的人臉識別率在萬分之一,誤失率前提下可以通過98%,銀行櫃檯人員用肉眼比對,誤差一般在1%,也就是說機器準確性是超過人的眼睛的。
當然,動態三維活體檢測更難,下面的圖是小布什的原相,右邊的小部什頭像和原圖一樣,但嘴型和上圖的胖子嘴型一樣,我們聽不出胖子講什麼,但小布什可以通過口形恢復出他講話的聲音,讀懂脣語。
我們知道張學友在好幾場演唱會上抓到了逃犯,這不是因為張學友,而是演唱會門口的人臉識別門口。所以張學友說“抓逃犯是我的正業,唱歌只是副業”。
機器視覺應用於什麼?這是一個肺部CT照片,大家可以從中發現有沒有長瘤子、有沒有癌症,但CT可以掃描出幾百張圖片,很麻煩,我們通過人工智慧把這些CT照片還原成一個肺,看看有沒有纖維化,再看看肺周邊的器官怎麼樣。騰訊利用它的人工智慧技術,目前它可以檢測肺裡非常小的腫瘤,而且篩查率還是相當準確的。
語音識別可以用於醫學,還有影象識別,可以重建三維影像,比如醫學教育,包括在增進醫療手術的輔導可以起到很好的作用。
在產業上,清華和英業達合作(做影像電路板的),影像電路板很複雜,可以看看該連的線是不是連了,不該連的線是不是沒連,人的肉眼很容易錯檢,但利用機器視覺就可以發覺人的肉眼沒法兒發現的問題,每年的經濟效益9000萬。
人工智慧對經濟效益的貢獻,有一些統計,人工智慧可以改進勞動生產率,可以增加激發消費需求、可以提高產品質量,有人預測2017到2030年,人工智慧對勞動生產率的貢獻超過GDP的55%,分析了不同國家,其中中國佔了全球將近一半,2030年人工智慧會帶來7萬億美元的GDP增長貢獻,佔GDP的26.1%,這個數字來源於普華永道,這裡面講了幾個領域,是最重要的人工智慧應用領域
AI指數比較高的應用效果比較好的:一是醫療保健,二是汽車,金融服務業不錯,製造業反而比金融服務零售業還要低一點,而現在我們首先會在物流上用。
以自動駕駛為例,麥肯錫估計2025年帶來的經濟規模將達到萬億美元,降低交通事故,每年能挽救3到15萬人的生命,減少廢氣排放90%,麥肯錫還認為到2030年人工智慧可以為全球額外貢獻13萬億美元的GDP增長,普華永道的估計是15.7萬億,平均年均GDP會增加1.2%。他後面那句話更重要:足以比肩19世紀的蒸汽機、20世紀的工業機器人和21世紀的資訊科技。
人工智慧擅長什麼?它適應的工作場景要滿足五個條件:
圍棋很難,圍棋的棋局空間很大,1.43後面有768個“0”,但它的資訊是完全確定的,具有靜態和結構性特點,所以計算機沒問題,它不怕難、不怕煩,可以做到,但打麻將就不一樣了,這是非合作對弈,雖然有規則但很難,所以AlphaGo不一定能打過人類;
電子遊戲也一樣,現在在《星際爭霸》遊戲裡,人工智慧還達不到一般專業水平。
自動駕駛在簡單路況中是好的,複雜路況就很難,因為行人和司機不見到都遵守交通規則,很難用訓練的辦法掌握,還需要駕駛員的經驗和知識,而且人類犯錯是偶然的,機器一旦犯錯可能就是系統性的;
人工智慧可以檢測腫瘤,但醫院還不敢這麼用,因為人工智慧本身可以告訴你應該做什麼,但它不會告訴你為什麼,比如人工智慧診斷一個病人,最後得出結論“鋸掉一條腿”,但不告訴你為什麼,那醫院敢鋸掉腿嗎?
還有很多功能是人工智慧難以勝任的,神經網路是以輸入為導向的演算法,首先的前提是大量資料,而且資料要比較準確,如果受了干擾他就很難,醫生受干擾可能會產生很多錯誤,比如北加州一個組織(美國公民自由聯盟)利用亞馬遜面部識別演算法把美國535位國會議員的照片和美國警察局掌握的2.5萬名罪犯照片進行比對,發現28個議員被當成了罪犯。分類資料終美國的資料嚴重偏向白人男性,所以黑面板的可能就容易被錯認。
目前機器學習還有很多不足,圖靈獎的獲獎者說,目前機器學習只是曲線的擬合,一個諾貝爾獎經濟學獎得主(Judea Pear)說“人工智慧不過是統計學”,也就是說目前還是有很多不夠的地方。
剛才我用的兩張圖對映的貓和狗的區別有個曲線,但只要擬合的地方稍微錯一點,可能就會發生錯誤。比如本來是熊貓,在照片上加上一些噪音,機器就可能識別成長臂猿,所以人工智慧識別目前來講還是比較嬌氣的。
大家看這張圖,有人看是順時針轉,有人看是逆時針轉,哪怕是同一個人,一會兒看著是順時針轉,眨眨眼睛卻變成了逆時針轉,究竟是順還是逆?其實只是左腿在前還是右腿在前的問題,是你的錯覺。
為什麼會出現這個錯覺?因為它正好處於人工智慧辨識(包括人辨識)的分界線,這時就可能發生誤導。
比如這個圖裡的圓圈,大家都覺得它是滾動的、是圓的,可是真的是這樣嗎?每個球都這樣走嗎?不一定,我們可以看看。實際上每個球走的都是直線,所以人工智慧的模型是會被誤導的。
大家看這幾張圖的照片,好像是真人,實際上不是,左邊是畫出來的,右邊是根據畫出來的所形成的,也就是說,它不是真人,而是人工智慧畫出來的,將來拍電視劇、拍電影,用不著花高價錢請“小鮮肉”,畫一個就可以。
大家看看這段小視訊,這個車怎麼突然出毛病,發神經病了?(見視訊),實際上這是一個真實交通事故的視訊,但把交通事故中跟它對撞的另一輛車抹掉了,大家看著覺得莫名其妙,所以人工智慧“有圖未必有真相”。
當然,神經網路現在還在演進,關鍵是怎樣選擇正確框架以及訓練,清華大學的張鈸院士說我們要把感知和認知放到同一個空間裡,不是簡單用概率統計的理論,要用模糊級的理論來重新定義它,否則我們沒辦法跟機器人交流,機器人之間也沒辦法交流。
機器學習著重於通過資料瞭解環境,而人類能夠同時洞悉不同的環境,群體學習是人類與生俱來的本領,而電腦是不具備的。我曾經跟一個搞人工智慧的公司說,識別語音、下圍棋都不算什麼,能不能組織11人的機器人足球隊,什麼時候踢贏皇馬了,那你就算厲害了,因為11人的機器人足球隊是要群體活動的。
這張圖中最後一個打問號的地方應該放(幾個數字),人很容易看出來應該放哪個,因為第一行232,第二行343,第三行應該是454,可是人工智慧就很難看出來,因為人工智慧要獲得人類常識不是那麼容易的。
剛才談到就業,實際上人工智慧確實會取代很多現在的就業,49%的勞動人口可能會被取代,但一半以上的人是不會被取代的,因為人工智慧沒有情感,有情感創作的文藝工作是不能被取代的,人工智慧不能取代文藝,要由人來做。美國高德納諮詢公司以及世界經濟論壇釋出的《2018未來就業》報告中都說,實際上取代了一部分工作,但會新增一些工作崗位。人工智慧會帶來數字鴻溝,發達國家、先進企業,還會拉大社會貧富懸殊,高智慧崗位會增加,一般勞動崗位會減少,自動駕駛出了問題是誰的責任?機器人創作的小說、詩歌是否享有相應的智慧財產權?有法律道德的問題,還有安全問題,如果人工智慧殺人了怎麼辦?
最後,總書記提到,要加快發展新一代人工智慧,是我們贏得全球科技競爭主動權的重要抓略抓手。
清華大學張鈸院士說,我們現在正在通往AI的路上,現在走得並不遠,在出發點附近,但人工智慧永遠在路上,大家要有思想準備,而這也就是人工智慧的魅力。
人工智慧會使得我們的生活更美好,或是走到我們的反面,這一切取決於人類自己。
謝謝。