麻省理工讓機器人能像孩子一樣學習語言
【手機中國新聞】當一個孩子學習說話時,沒有人會喋喋不休地解釋主語和動詞之間的區別,或者他們在句子中的位置。然而,這就是人類教導計算機理解語言的方法:我們對句子進行註釋,描述單詞的結構和意義,然後我們使用這些句子來訓練句法和語義解析。這些解析可幫助類似亞馬遜Alexa等語音識別系統理解自然語言。這是一個需要花費大量時間的過程,特別對於不太常見的語言來說,非常困難。
本週,麻省理工學院的研究人員撰寫了一篇論文,描述了培訓解析的新方法。通過模仿兒童學習的方式,訓練系統觀察標題視訊並將單詞與記錄的動作和物件關聯起來。這種方法可以使訓練解析變得更加容易,並且可以改善人類與機器人的互動。
人工智慧
例如,配備此解析的機器人可以觀察其所在環境,從而加強其對口頭命令的理解, 即使命令不清楚。
麻省理工學院電腦科學與人工智慧實驗室(CSAIL)研究員兼大腦機器研究中心(CBMM)研究員安德烈巴布說:“人們交談時使用不完整的句子,表達連續的意思但語言組織混亂。” , “你希望家中的機器人習慣自己特定的說話方式,並且能夠理解他們表達的內容。”
Barbu是本週在自然語言處理實驗方法會議上提交的論文的合著者。為了訓練他們的機器人,研究人員將語義解析與被訓練識別視訊中人類和活動物件的計算機視覺元件相結合。
他們編輯了大約400個視訊的資料集,描述了人們執行諸如拾取物體或走向物體等動作。眾包平臺Mechanical Turk的參與者為這些視訊撰寫了1200個標題,其中840個專門用於培訓和調整,其餘的用於測試。
程式碼概念圖
通過將單詞與視訊中的動作和物件相關聯,將學習如何構造句子。通過該培訓,它可以準確地預測沒有視訊的句子的含義。由於帶標題的視訊比帶註釋的句子更容易製作,這種方法應該更適用於訓練。同時,研究人員表示,這種方法還可以幫助我們更好地理解幼兒學會說話的方式。
“孩子可以從不同的方式獲得冗餘的補充資訊來了解世界,包括聽父母和兄弟姐妹談論世界,以及觸覺資訊和視覺資訊,”論文合著者Boris Katz說,他是首席研究科學家兼位於MIT電腦科學與人工智慧實驗室的 InfoLab集團負責人, “這是一個驚人的難題,需要同時處理所有感官資訊輸入。這項研究更深遠的意義是瞭解世界上這種學習是如何發生的。”