贊!針對2.2億人的推薦系統的重構技術解析
知乎從問答起步,已逐步成長為一個大規模的綜合性知識內容平臺。
截止目前,使用者數突破2.2億,有超過3000萬的問題被提出,並獲得超過1.3億個回答。同時,知乎內還沉澱了數量眾多的優質文章、電子書以及其它付費內容。
因此,在連結人與知識的路徑中,知乎存在著大量的推薦場景。 粗略統計,目前除了首頁推薦之外,我們已存在著20多種推薦場景;並且在業務快速發展中,不斷有新的推薦業務需求加入。
在這個背景之下,構建一個較通用的且便於業務接入的推薦系統就變成不得不做的事了。
在講通用架構的設計之前,我們一起回顧一下推薦系統的總體流程和架構:
通常,因為模型所需特徵及排序的效能考慮,我們通常將簡單的推薦系統分為召回層和ranking層,召回層主要負責從候選集合中粗排選擇待排序集合,之後獲取ranking特徵,經過排序模型,挑選出推薦結果給使用者。
簡單推薦模型適合一些推薦結果要求單一,只對單目標負責的推薦場景,比如新聞詳情頁推薦、文章推薦等等。
但在現實中,作為通用的推薦系統來說,其需要考慮使用者的多維度需求,比如使用者的多樣性需求、時效性需求、結果的滿足性需求等。
因此就需要在推薦過程中採用多個不同佇列,針對不同需求進行排序,之後通過多佇列融合策略,從而滿足使用者不同的需求。
從我們知乎來說,也大體是這樣一個發展路線,比如今年的7月份時,因為一些業務快速發展且架構上相對獨立的歷史原因,我們的推薦系統存在多套,並且架構相對簡單。
以其中一個推薦架構設計相對完善的系統為例,其總體架構是這樣的。可以看出,這個架構已經包含了召回層和ranking層,並且還考慮了二次排序。
那麼存在哪些問題呢?
-
首先,對多路召回支援不友好。現有架構的召回是耦合在一起的,因此開發調研成本高,多路召回接入相對困難。
-
然後,召回階段只使用Redis作為召回基礎。Redis有很多優點,比如查詢效率高,服務較穩定。但將其作為所有召回層的基礎,就放大了其缺點,第一不支援稍複雜的召回邏輯,第二無法進行大量結果的召回計算,第三不支援embedding的召回。
-
第三點,總體架構在實現時,架構邏輯剝離不夠乾淨,使得架構抽樣邏輯較弱,各種通用特徵和通用監控建設都較困難。
-
第四點,我們知道,在推薦系統中,特徵日誌的建設是非常重要的一個環節,它是推薦效果好壞的重要基礎之一。但現有推薦系統框架中,特徵日誌建設缺乏統一的校驗和落地方案,各業務『各顯神通』。
-
第五點,當前系統是不支援多佇列融合的,這就嚴重限制了通用架構的可擴充套件性和易用性。
因此,我們就準備重構知乎的通用推薦服務框架。
一、重構之路
1、在重構前的考慮
語言的選擇
早期知乎大量的服務都是基於Python開發的,但在實踐過程中發現Python資源消耗過大、不利於多人協同開發等各種問題。
之後公司進行了大規模的重構,現在知乎在語言層面的技術選型上比較開放,目前公司內部已有Python、Scala、Java、Golang等多種開發語言專案。
那麼對於推薦系統服務來說,由於其重計算,多併發的特點,語言的選擇還是需要考慮的。
架構上的考慮
要解決支援多佇列混排和支援多路召回的問題,並且其設計最好是支援可插拔的。
召回層上
除了傳統的Redis的KV召回(部分CF召回,熱門召回等等應用場景),我們還需要考慮一些其他索引資料庫,以便支援更多索引型別。
首先我們先看語言上的選擇,先總體上比較一下各種語言的特點,我們簡單從如下幾個方面進行比較。
-
從效能上,依照公開的benchmark,Golang和Java、Scala大概在一個量級,是Python的30倍左右。
-
其次Golang的編譯速度較快,這點相對於java、scala具有比較明顯的優勢。
-
再次其語言特性決定了Golang的開發效率較高,此外因為缺乏trycatch機制,使得使用Golang開發時對異常處理思考較多,因此其上線之後維護成本相對較低。
-
但Golang有個明顯缺陷就是目前第三方庫較少,特別跟AI相關的庫。
那麼基於以上優缺點,我們重構為什麼選擇Golang?
-
Golang天然的優勢,支援高併發並且佔用資源相對較少。這個優勢恰恰是推薦系統所需要的,推薦系統存在大量需要高併發的場景,比如多路召回,特徵計算等等。
-
知乎內部基礎元件的Golang版生態比較完善。目前我們知乎內部對於Golang的使用越來越積極,大量基礎元件都已經Golang化,包括基礎監控元件等等,這也是我們選擇Golang的重要原因。
但我需要強調一點,語言的選擇不是隻有唯一答案的,這是跟公司技術和業務場景結合的選擇。
講完語言上的選擇,那麼為了在重構時支援多佇列混排和支援多路召回,我們架構上是如何來解決的?
這點在設計模式比較常見,就是『抽象工廠模式』:首先我們構建佇列註冊管理器,將回調註冊一個map中,並將當前服務所有佇列做成json配置的可自由插拔的模式,比如如下配置,指定一個服務所需要的全部佇列,存入queues欄位中:
通過name來從註冊管理器的map中調取相應的佇列服務:
之後呢我們就可以併發進行多佇列的處理:
對於多路召回,及整個推薦具體流程的可插拔,與上面處理手法類似,比如如下佇列:
我們可以指定所需召回源,指定merger策略等等,當某個過程不需處理,會按自動預設步驟處理,這樣在具體queue的實現中就可以通過如下簡單操作進行自由配置:
我們講完了架構上一些思考點和具體架構實現方案,下面就是關於召回層具體技術選型問題。
我們先回顧一下,在常用的推薦召回源中,有基於topic(tag)的召回、實體的召回、地域的召回、CF(協同過濾)的召回以及NN產生的embedding召回等等。
那麼為了能夠支援這些召回,技術上我們應該如何來實現呢?
我們先從使用角度看一下常用的NoSQL資料庫產品:
-
Redis是典型的k-v儲存,其簡單、並且高效能使得其在業內得到大量使用,但不支援複雜查詢的問題也讓Redis在召回複雜場景下並不佔優,因此一般主要適用於kv類的召回,比如熱門召回,地域召回,少量的CF召回等等。
-
而HBase作為海量資料的列式儲存資料庫,有一個明顯缺點就是複雜查詢效能差,因此一般適合資料查詢量大,但查詢簡單的場景,比如推薦系統當中的已讀已推等等場景。
-
而ES其實已經不算是一個數據庫了,而是一個通用搜索引擎範疇,其最大優點就是支援複雜聚合查詢,因此將其使用者通用基礎檢索,是一個相對適合的選擇。
我們上面介紹了通用召回的技術選型,那麼embedding召回如何來處理呢?
我們的方案是基於Facebook開源的faiss封裝,構建一個通用ANN(近似最近鄰)檢索服務。
faiss是為稠密向量提供高效相似度搜索和聚類的框架。其具有如下特性:
-
提供了多種embedding召回方法;
-
檢索速度快,我們基於python介面封裝,影響時間在幾ms-20ms之間;
-
c++實現,並且提供了Python的封裝呼叫;
-
大部分演算法支援GPU實現。
從以上介紹可以看出,在通用的推薦場景中,我們召回層大體是基於ES+Redis+ANN的模式進行構建。
-
ES主要支援相對複雜的召回邏輯,比如基於多種topic的混合召回;
-
Redis主要用於支援熱門召回,以及規模相對較小的CF召回等;
-
ANN主要支援embedding召回,包括NN產出的embedding、CF訓練產出的embedding等等。
介紹完以上思考點,我們總體的架構就基本成型了,具體如下圖所示:
該框架可以支援多佇列融合,並且每個佇列也支援多路召回,從而對於不同推薦場景能夠較好的支援。另外,我們召回選擇了ES+Redis+ANN的技術棧方案,可以較好支援多種不同型別召回,並達到服務線上的最終目的。
2、遇到的問題及解決方案
1)離線任務和模型的管理問題
我們做線上服務的都有體會,我們經常容易對線上業務邏輯程式碼更關注一些,而往往忽視離線程式碼任務的管理和維護。但離線程式碼任務和模型在推薦場景中又至關重要。因此如何有效維護離線程式碼和任務是我們面臨的第一個問題。
2)特徵日誌問題
在推薦系統中,我們常常會遇到特徵拼接和特徵的『時間穿越』的問題。所謂特徵時間穿越,指的是模型訓練時用到了預測時無法獲取的『未來資訊』,這主要是訓練label和特徵拼接時時間上不夠嚴謹導致。如何構建便捷通用的特徵日誌,減少特徵拼接錯誤和特徵穿越,是我們面臨的第二個問題。
3)服務監控問題
一個通用的推薦系統應該在基礎監控上做到儘可能通用可複用,減少具體業務對於監控的開發量,並方便業務定位問題。
具體如下:
針對離線任務和模型的管理問題:
在包括推薦系統的演算法方向中,需要構建大量離線任務支援各種資料計算業務,和模型的定時訓練工作。但實際工作中,我們往往忽略離線任務程式碼管理的重要性,當時間一長,各種資料和特徵的質量往往無法保證。
為了儘可能解決這樣的問題,我們從三方面來做:
-
第一,將通用推薦系統依賴的離線任務的程式碼統一到一處管理;
-
第二,結合公司離線任務管理平臺,將所有任務以通用包的形式進行管理,這樣保證所有任務的都是依賴最新包;
-
第三,建設任務結果的監控體系,將離線任務的產出完整監控起來。
針對特徵日誌問題:
Andrew Ng之前說過:『挖掘特徵是困難、費時且需要專業知識的事,應用機器學習其實基本上是在做特徵工程。』
我們理想中的推薦系統模型應該是有乾淨的Raw Data,方便處理成可學習的Dataset,通過某種演算法學習Model,來達到預測效果不斷優化的目的。
但現實中,我們需要處理各種各樣的資料來源,有資料庫的,有日誌的,有離線的,有線上的。這麼多來源的Raw Data,不可避免的會遇到各種各樣的問題,比如特徵拼接錯誤,特徵『時間穿越』等等。
這裡邊反應的一個本質問題是特徵處理流程的規範性問題。那麼我們是如何來解決這一點呢?
首先,我們用線上代替了離線,通過線上落特徵日誌,而不是RawData,並統一了特徵日誌Proto,如此就可以統一特徵解析指令碼。
針對服務監控問題:
在監控問題上,知乎搭建了基於StatsD+Grafana +InfluxDB的監控系統,以支援各種監控日誌的收集儲存及展示。基於這套系統,我們可以便捷的構建自己微服務的各種監控。
我們這裡不過多介紹通用監控系統,主要介紹下,基於推薦系統我們監控建設的做法。
首先先回顧一下我們推薦系統的通用設計:我們採用了『可插拔』的多佇列和多召回的設計,那麼可以在通用架構設計獲取到各種資訊,比如業務線名,業務名,佇列名,process名等等。
如此,我們就可以將監控使用如下方式實現,這樣就可以通用化的設計監控,而不需各個推薦業務再過多設計監控及相關報警。
按照如上實現之後,我們推薦系統的監控體系大概是什麼樣子,首先各個業務可以通過grafana展示頁面進行設定。我們可以看到各個flow的各種資料,以及召回源的比例關係,還有特徵分佈,ranking得分分佈等等。
二、未來挑戰
講完了遇到的一些問題之後,我們來看一下未來的挑戰。
-
隨著業務的快速發展,資料和規模還在不斷擴張,架構上還需要不斷迭代;
-
隨著推薦業務越來越多,策略的通用性和業務之間的隔離如何協調一致;
-
資源排程和效能開銷也需要不斷優化;
-
最後,多機房之間資料如何保持同步也是需要考慮的問題。
三、總結
最後,我們做個簡單總結。
第一點,重構語言的選擇,關鍵跟公司技術背景和業務場景結合起來;
第二點,架構儘量靈活,並不斷自我迭代;
第三點,監控要早點開展,並儘可能底層化、通用化。