一文看懂谷歌I/O開發者大會:機器學習的情懷時代
一年一度的Google I/O開發者大會在美國加州的海岸線圓形劇場(Shoreline Amphitheater)召開。面向消費者的主題演講在北京時間凌晨1點開始,谷歌CEO皮查伊(Sundar Pichai)和他的團隊在兩小時內向來自世界各國的開發者們介紹了他們的視覺化搜尋,新版谷歌智慧助手,新版Android作業系統等。
皮查伊走上舞臺,起調略高,他說谷歌最初的使命是整理世界的資訊,讓世界人民都能接觸到更多資訊,讓世界產生變化,終極使命則是“幫助服務大家”。
皮查伊上來先談“使命”
而隨著時間的變化,這種“幫助”加入了AI人工智慧,漸漸讓人們寫郵件更便捷(智慧回覆和輸入),訂餐更簡單等等。皮查伊順勢將話題引入到谷歌談了好幾年的AI人工智慧上——例如去年的谷歌 News讓人更全面瞭解新聞,這是AI參與的結果,在你搜索新聞時候智慧提供一些相關。例如最近熱門科學事件“黑洞”,使用者看到黑洞照片,谷歌還會在旁邊更幫助人們進一步瞭解什麼是黑洞。
搜尋黑洞,出來更多相關
這種AI搜尋現在進一步跟視覺結合在一起,比如手機攝像頭+AR:你是個醫學學生,搜尋肌肉,結合手機攝像頭,能在眼前進一步看到肌肉;可能是覺得這個例子不過癮,現場講解的谷歌女高管又在舞臺上放出了一條AR大白鯊。
google Lens加入了AR
來個大白鯊
然後她又舉了個更接地氣的例子,比如谷歌 Lens跟吃飯這事的結合:你去個飯館,用谷歌 Lens掃一下選單,這家飯館最受歡迎的菜就高亮顯示了——這是手機鏡頭+谷歌搜尋+大資料的結合,之後就在手機的小螢幕上呈現出來,給吃貨們帶來了福利。
拍下彩蛋,就知道大家都在這家館子點什麼菜
皮查伊再次上臺,這次他用“訂車”距離,說明谷歌有多強大的資料整合能力。你要訂車,只要進入訂車頁面,大部分資料都能由手機自己填寫,因為它能讀取你的行程,日曆,郵件,所以它知道你要去哪,(也大概知道)訂車要幹什麼。
去年機器幫你訂飯館,今年幫訂車
這個簡單例子說的是谷歌手裡攥著大資料+深度學習的結果,機器可能比你更來接自己。還記得去年那能幫到你訂飯的Google Duplex嗎? 如今它已經升級為“Duplex on the web”,有網的地方就有它,無處不在。
Duplex on the web
皮查伊說,“這些能改變我們的的未來”。
谷歌助理再次升級
首先上臺演示的是谷歌助理(Google Assistant),只見一個小姐姐對著手機快速說“開啟相簿”“開啟日曆”“設定定時”這些,根本不用先說“hi Google”這種喚醒語,一個個App基本毫無停頓的就開了;另外,還有它能快速吧語音轉化成文字,並理解你的動作和指令。
而且,這些都是可以離線實現的。
大妹子連連給手機下指令,它就一直快速執行
谷歌助理的殼是一個語音助手,但內涵仍是AI,這是已經貫穿了谷歌開發者大會N年的主題,它在語音助手裡,也在你的手機裡,日曆裡,郵件裡…… 所說才能理解你,知道你問它“我媽媽家裡天氣怎麼樣”是啥意思(不需要告訴它我媽叫什麼,她家在哪)。
車內使用環境是谷歌助理的長處體現
未來,谷歌助理會融入更多情景,比如Android Auto,谷歌的車載駕駛介面。谷歌認為這才是它施展自己本事的地方:在開車這種情景下,用聲音控制,也不用跟它廢話太多,就能理解你。
全新Google Assistant支援30多種語言,80多個國家,預計在谷歌的“親兒子”手機Pixel系列上率先上線。
然後谷歌也走上人文跟科技的十字路口了
曾經,蘋果CEO庫克經常打趣說“使用者不是我們產品”,他吐槽的就是谷歌和Facebook拿使用者資料換來智慧。
在隱私這事成為政治正確的時候,谷歌也得出面談談這事了。在談完Google Assistant之後,皮查伊就上臺說了下我們也是重視隱私的好麼? 比如系統裡就能控制什麼資料能守群什麼不能,地圖也有隱私模式啊。
老被人說沒隱私,這誰頂得住
“我們總是希望為使用者做的更多,並保護使用者的安全”——皮查伊說我們有個叫Federated Learning模式,這方式既可以機器學習,又能保護使用者隱私。這跟蘋果說的“差分演算法”大同小異,不定位個體,而是在大資料基礎上找資料規律。
隱私之後,谷歌也談了下自己對殘障人士的關懷,機器學習的結果甚至能用一個表情或細微動作來識別語言,幫助殘障人士進行輸入,讓他們也能表達,被外界理解。
谷歌的技術在此刻不在是冷冰冰的理智機械高科技,而是溫暖的情懷。喬布斯說蘋果站在人文與科技的十字路口,誰說谷歌又不是?
漸凍症人士輸入