谷歌藉助人工智慧讓創新性工具更易用
【手機中國新聞】根據美國人口普查局的資料,在這個國家生活著超過5千6百萬殘障人士,他們和健全人士之間的數字化鴻溝正不斷擴大。殘障美國人有大約三倍於健全人的概率不上網,以及20%更少的可能性去購買電子裝置。除此之外,他們中只有40%的人有信心藉助自己的力量使用網際網路。
為了讓網際網路更易使用,谷歌和紐約大學的“能力”專案共同釋出了“創造力(Creativity)”,一個包含了眾多探索人工智慧如何幫助殘障人士實驗的專案。這些實驗可以在“創造力”的網頁上被找到,谷歌同時也開源了該專案的程式碼。目前它正在向開發者們徵集新的實驗,後者可以上傳自己的作品並可能獲得被谷歌推薦的機會。這些實驗包括了從通過移動面部來創作曲調的作曲工具,到可以將景象和聲音轉化為素描的數字畫布,以及模仿通感效果的音樂視覺化工具。
谷歌藉助人工智慧讓創新性工具更易用
其中的關鍵的要數由谷歌TensorFlow機器學習架構驅動的機器學習模型Posenet,它可以檢測圖片和視訊中的人體姿態。通過普通的網路攝像頭你就可以用臉畫畫,用鼻子編曲。它由JavaScript編寫而成,影象可以由裝置自身或者瀏覽器線上處理。谷歌聲稱其曾與包括失聰作曲家Jay Alan Zimmerman,視障科學家及設計師Josh Miele,科技教育家Chancey Fleet,幫助年輕殘障音樂家組建管絃樂隊的Open Up Music公司創始人Barry Farrimond 和Doug Bott在內的殘障創作者合作開發“創造力”專案。
谷歌藉助人工智慧讓創新性工具更易用
“我們希望這些實驗能激勵殘障人士釋放心中的藝術才能。”紐約大學“能力”專案的構思者和研究者Claire Kearny-Volpe在部落格中寫道: “藝術給了我們超越語言的能力去實現團結,創造快樂以及獲得滿足。做得很對,技術可以推進這一過程-拓展我們的能力和潛能。”這並不是人工智慧第一次被用於提升產品易用性。谷歌的DeepMind部門正使用人工智慧為失聰者提供閉合字幕。在2016年牛津大學一項共同研究中,科學家們創造了一個表現顯著優於脣讀專家的模型,它正確地翻譯了200個隨機抽取片段中46.8%的話語,相比之下人類同行的成績只有12.4%。
與此同時,Facebook也發展了可以向視障人士描述圖片的說明工具。谷歌的Cloud Vision API能夠理解圖片中物體的背景。微軟的Seeing API 具備識別手寫文字,描繪顏色和場景等能力。