BERT

解構BERT:從1億個引數中提取6種模式

2018年標誌著自然語言處理領域的轉折點,一系列深度學習模型在NLP任務中實現了最先進的結果,從問答到情感分類。最近,谷歌的BERT演算法已經成為一種“統治所有人的一種模式”,基於其在各種任務中的卓

中文語料的 Bert finetune

NLP 問題被證明同影象一樣,可以通過 finetune 在垂直領域取得效果的提升。Bert 模型本身極其依賴計算資源,從 0 訓練對大多數開發者都是難以想象的事。在節省資源避免重頭開始訓練的同時,為更好的擬合

WSDM Cup 2019 自然語言推理任務獲獎解題思路

總第337篇 2019年 第15篇 美美導讀:美團團隊在剛剛結束的WSDM Cup 2019比賽“真假新聞甄別任務”中獲得了第二名的好成績。本文將詳細介紹他們本次獲獎的解決方案,

深度思考 | 從BERT看大規模資料的無監督利用

在擊敗 11 個 NLP 任務的 State-of-the-art 結果之後,BERT 成為了 NLP 界新的里程碑, 同時打開了新的思路: 在未標註的資料上深入挖掘,可以極大地改善各種任務的效果。資料標註是昂

1715983214.5996