首頁  >  文章  >  科技週邊  >  微博推薦即時大模型的技術演進

微博推薦即時大模型的技術演進

王林
王林轉載
2023-05-02 18:34:15974瀏覽

微博推薦即時大模型的技術演進

一、技術路線回顧

1、業務場景與特點

本團隊在微博APP 中負責的推薦業務主要包括:

#① 首頁推薦下的所有tab 欄的內容,資訊流產品一般都是第一個tab 流量佔比較高;

② 熱搜向下滑進入的一個資訊流,這也是我們的業務場景,也包括這個頁面上的其他資訊流tab,例如視頻頻道等;

#③ 在整個APP 當中搜尋或點擊推薦視頻,進入的沉浸視頻場景。

微博推薦即時大模型的技術演進

我們的業務具有以下一些特點:

(1)首先,從推薦實現的觀點來看:

① 業務場景多。

② 微博UI 上用戶對操作和反饋多樣,內容既可以點擊進入正文頁觀看,也可以在流內消費,流內反饋多樣如點進部落客個人頁、點進正文頁、點圖片、點影片、轉評讚等。

③ 可分發的物料類型多,如首頁推薦可分長圖、圖片(一張圖或多圖)、影片(橫版或直式版影片)、 文章等。

(2)從產品定位角度來看:

① 服務熱點:微博在熱點爆發前後,流量變化特別大,用戶能在推薦裡面順暢消費熱點內容,是公司對推薦產品的要求。

② 建構關係:希望在推薦的微博裡沉澱一些社交關係。

2、技術選型

#下圖展示了我們這幾年的技術進步脈絡。

微博推薦即時大模型的技術演進

#目前的建議框架來講千億特徵、萬億參數是標配。與NLP 和CV 不同,這兩個方向太大的模型是網路本身複雜度高,推薦場景有較好的稀疏性,模型尺寸比較大,訓練往往使用資料並行的方式,每個使用者serving 並不需要全部模型參數。

本團隊從 2018 年至 2022 年的技術演進,主要是大規模和即時性兩個面向。在此基礎上再做複雜結構,來達到事半功倍的效果。

這裡簡單介紹一下我們的 Weidl 線上學習平台。

微博推薦即時大模型的技術演進

#

主要流程為:使用者行為拼接樣本,給模型來學習,再推薦給使用者回饋回來,整體採用資料流優先的設計原則來達到更好的彈性。無論使用什麼方式訓練 KERNEL,離線的模型儲存和線上的 PS 之間的即時更新部分還是在的。不管是用手寫的LR 或FM,或者Tensorflow,或者DeepRec 訓練模型都是可以的,對應的模型存儲都是我們自己搭建的一套資料流,模型格式也是我們自己做的,從而保證多Backend 下從模型訓練到線上更新能夠在分鐘級以下,下次使用者呼叫時能用到新的參數。在這種設計原則下,可以很方便的切換 Backend。

Weidl 是微博自研機器學習平台,其中Bridge 模式可以呼叫各個深度學習架構的算子,也可以不用Bridge 模式,取代成自研算子也很方便。例如我們之前使用Tensorflow,會對tf 進行一些內存分配和算子的優化,2022 年下半年切換到DeepRec,對DeepRec 多一些了解之後,會發現之前基於tf 的一些性能上的優化點和DeepRec 是殊途同歸的。

下圖中列出了本團隊這些年做的一些版本,方便大家理解我們業務中各個技術點的貢獻度,首先是用基於FM 的模型解決大規模即時推薦問題,後來依序做了基於深度的複雜結構。從結果來看,前面使用非深度模型解決線上即時問題帶來的效益也很大。

微博推薦即時大模型的技術演進

#資訊流推薦與商品的推薦不同,資訊流推薦基本上是大規模即時深度結構。這塊也有一些難點和分歧點,例如:特徵實時並不是模型實時的替代方案,對推薦系統來講,模型學到的才是比較重要的;另外在線學習確實會帶來一些迭代上的問題,但在絕對收益前,都是可以花時間克服的。

微博推薦即時大模型的技術演進

微博推薦即時大模型的技術演進

微博推薦即時大模型的技術演進

這一章節會從目標、結構和特徵幾方面來介紹業務的迭代模型。 ###############1、多目標融合################微博場景使用者操作很多,使用者表達對Item 的喜歡會有很多種行為,例如點擊互動、時長、下拉等,每個目標都是要去建模預估,最後整體融合排序,這塊對推薦業務來講是很重要的。最開始做的時候,是透過靜態融合加離線搜參來做,後來透過強化學習的方法,變成動態搜參,之後又做了一些融合公式優化,後面還改進成透過模型來輸出一些融合分等。 ##################################強化調參的核心做法是########### ##,把線上流量分成一些小的流量池,透過一些線上目前的參數,去產生一些新的參數,去看使用者對這些參數的反應,收集回饋進行迭代。其中比較核心的部分是 ###reward 的計算###,其中用了 CEM、ES。後邊用了自研的演算法,以適應自身業務需求。因為線上學習變化是非常快的,參數要不能隨之變化的話就會出現比較大的問題,比如大家對於視頻類內容的偏好從週五晚上到週六早上和周日晚上到週一早上,偏好的變化是非常快速的,整個融合參數的變化要反映出使用者對某些東西的偏好的變化。 ########################

下面是模型最佳化中的一些小trick,使用者每天使用是帶週期性的,每天定時init 校正是比較好的,不然可能會走到比較偏的分支;參數初始化的時候要服從先驗分佈,先進行先驗化分析,再去進行差異化融合;加入異常檢測機制,確保融合參數能一致迭代更新。

微博推薦即時大模型的技術演進

#融合公式一開始選用加法融合,當時業務目標還沒有那麼多,後來隨著目標增多,發現加法融合不方便支持加上更多的目標,會弱化各子目標的重要性影響,後邊使用了乘法融合公式。效果如ppt 所示:

微博推薦即時大模型的技術演進

#在全量版本升級為多任務之後,在此版本上優化成,透過模型進行目標融合。透過模型融合,能更好地捕捉許多非線性的東西,具有更好的表達力,這樣也能做到個人化融合,每個使用者融化的東西是不一樣的。

微博推薦即時大模型的技術演進

2、多任務

多任務是從2019 年、 2020 年開始火起來的一個概念,推薦系統往往需要同時專注於多個目標,例如我們的業務場景裡有七個目標:點擊、時長、互動、完播、負回饋、進主頁、下拉刷新等。對每個目標各訓練一個模型會消耗較多的資源且繁瑣。而且,有些目標是稀疏的,有些則相對稠密一些,如果分開單獨做模型,那些比較稀疏的目標一般不容易學好,放在一起學習能解決稀疏目標學習的問題。

微博推薦即時大模型的技術演進

推薦多工建模入門一般是從MMOE 開始,到SNR,再到DMT,最後到全量的MM,其實就是在SNR 上做了融合網路等最佳化。

微博推薦即時大模型的技術演進

#在做多任務之前,重點要解決的問題包括:多目標之間各個loss 是否有衝突,彼此是否會有蹺蹺板效應;樣本空間不一致的問題;loss 平衡問題等。在實際經驗中,無論是PCGrad,UWL 的方法在測試資料都會體現出其作用,但如果放大到生產環境中,去在線學習不斷訓練的話,這些方法的作用就會衰減的比較快,反而根據經驗去設定一些值在整個線上實習環境中也不是不可行,這塊也不太確定是不是跟線上學習相關,還是與樣本量有關。單獨做 MMOE 的效果也是比較好的,左邊是業務上實際的一些收益點。

微博推薦即時大模型的技術演進

#以下是一些從 MMOE 開始的技術演進。開始做多工一般是做簡單的硬連接,後面到 MMOE,再到 SNR 或 PLE,這些都是近年來業界比較成熟的方法。本團隊使用的是SNR,並且進行了兩個最佳化。下圖下半部分,最左邊是 SNR 標準 paper 的做法,我們把 expert 內部的 transformation 做了簡化。同時會有獨享的專家和共享的專家,這裡會根據一些實際業務中反饋的數據結論的實際值與估計偏差進行一些分析,做一些單獨的專家。

微博推薦即時大模型的技術演進

#

3、多場景技術

我們所負責的推薦場景比較多,很自然地想到使用一些多場景的技術。多任務是有些目標比較稀疏,多場景是因為場景有大有小,小場景收斂的沒那麼好,因為資料量不足,而大場景的收斂比較好,即使兩個場景都差不多大,中間也會有一些涉及知識遷移會對業務有收益,這也是最近比較熱的方向,和多任務在技術上有很多相通的點。

微博推薦即時大模型的技術演進

#基於每個多任務模型,都可以做多場景模型,相較於於多任務結構,多加的是下圖中的  Slot-gate 層,相同的Embedding 透過Slot-gate 針對不同的場景表達不同的作用。透過 Slot-gate 的輸出可以分為三個部分:連專家網路、連進目標任務,或連特徵。

微博推薦即時大模型的技術演進

主模型主要是用 SNR 取代 CGC,跟多任務的迭代是一脈相成的。以下是當前多任務和多場景混合在一起,在熱點和熱門兩個內部業務場景下的應用。其中首頁推薦為熱門串流,發現頁推薦為熱點串流。

整體結構類似 SNR,上面為點擊、互動和時長三個目標塔。其中這三個目標塔針對熱門和熱點兩個場景,細分為六個目標。除外,增加了 Embeding transform layer,和 Slot-gate 不同的是,Slot-gate 是去找特徵的重要性,而 Embeding transform layer 是考慮不同場景下 embedding 空間差異,去進行 embedding 映射。有些特徵在兩個場景中維度不同,透過 Embedding transform layer 進行轉換。

微博推薦即時大模型的技術演進

4、興趣表徵

興趣表徵是這些年提的比較多的技術,從阿里的DIN 到SIM、DMT,已經成為業界使用者行為序列建模的主流。

微博推薦即時大模型的技術演進

#一開始使用的 DIN,對不同行為,建構多個行為序列。引入 attention 機制給行為中不同物料予以不同權重,使用 local activation unit 來學習用戶序列與當前候選排序物料的權重分佈,實現了熱門精排方案,並取得了一定的業務收益。

DMT 的核心是把Transformer 用在multitask 上,本團隊使用了簡化的DMT 模型,移除了bias 模組,取代MMoE 為SNR,上線後也取得一定的業務效果。

微博推薦即時大模型的技術演進

Multi-DIN 是將多個序列展開,將候選物料的mid,tag,authorid 等作為query,分別對每個序列單獨做attention 得到興趣表徵後,拼接其他特徵進入多任務排序模型。

微博推薦即時大模型的技術演進

同時我們也做了實驗發現,把序列拉的更長,例如將點擊、時長、互動序列等等,每個序列從20 擴展到50,效果更好,與paper 中結論一致,不過序列更長需要更多的算力成本。

#

微博推薦即時大模型的技術演進

用戶生命週期超長序列建模和前面的長序列建模不同,不是透過請求特徵就能拉到數據,而是離線構造用戶的長行為序列特徵;或者是透過一些搜尋的方式,找到對應的特徵再去生成embedding;或者是將主模型和超長序列模型分開建模,最終形成embedding 送入主模型中。

在微博業務中,超長序列的價值沒有那麼大,因為網路上大家的關注點變化較快,例如熱搜的東西,一兩天逐漸淡忘了,資訊流中七天前的東西,分發就比較少了。因此太長的使用者行為序列,對於預估使用者對 item 的偏好價值會有一定程度的減弱。但對於低頻或回流用戶來說,這個結論某種程度上是不同的。

微博推薦即時大模型的技術演進

5、特徵

使用超大規模的模型,在特徵層面也會有一些困擾。例如有的特徵理論上覺得會對模型有幫助,但加入後的效果並不能達到預期,這也是推薦業務面臨的現實情況。因為模型規模非常大,模型中加了特別多id 類的信息,已經對一些用戶偏好有了不錯的表達,這時再加一些統計上的特徵,可能就沒那麼好用,下面講下本團隊實務上比較好用的特徵。

首先匹配特徵效果都是比較不錯的,使用者對於單一物料、單一內容類型、單一發博者建立一些比較詳細的統計數據,都能帶來一些收益。

微博推薦即時大模型的技術演進

另外,多模態的特徵也是比較有價值的,因為整個推薦模型是基於使用者行為的,有一些低頻、冷門的Item 在整個系統中使用者行為都是不足的,這時引入更多的先驗知識能帶來更多收益。多模態透過引入 NLP 等技術引入一批語意進來,對於低頻和冷啟動都是有幫助的。

本團隊做了兩種引入多模態特徵的做法:第一種類型是把多模態embedding 融合進推薦模型中,對底層這些embedding 的梯度凍結,往上層的MLP 再進行更新;另一種方法是利用多模態在進推薦模型之前先做聚類,把聚類的id 扔進推薦的模型進行訓練,這對於推薦模型來講是更容易引進信息的方式,但也會遺失一些多模態具體的語意資訊。

上面兩種方式,在我們的業務中都做了較多嘗試,第一種方法會帶來模型複雜度的提升,需要做很多空間變換,找特徵重要性等,但能帶來不錯的收益;第二種方法使用聚類id 去學習,複雜度都在模型之外,線上服務也比較簡單,效果也能達到90% 左右,而且還可以對聚類id 做一些統計性的特徵,結合起來效果很好。

微博推薦即時大模型的技術演進

加入多模態特徵後,收益比較大的是高品質的低曝光物料,能解決冷啟動問題。推薦那些曝光比較少的物料,模型無法充分學習的,會很依賴多模態體帶來更多信息,對業務生態也是有正向價值的。

微博推薦即時大模型的技術演進

#Co-action 的動機是:嘗試deepfm、wide deep 等多種特徵交叉方式無果, 懷疑是交叉特徵與DNN 部分共享embedding 衝突導致。 Co-action 相當於加了存儲,單獨開闢存儲空間去做交叉,這裡增加了表達空間,在業務中也拿到了不錯的收益。

#

微博推薦即時大模型的技術演進

三、連結表達一致性

#這部分是關於粗排和回想的內容。對於推薦業務來講,雖然因為算力支持不了將幾百萬的候選集都用精排來排,而分成召回、粗排、精排幾部分,但邏輯上是在講同一個問題。如下圖舉例,粗排是會做截斷的,最終給到精排的內容只有1000 左右,如果粗排和精排的表達差異較大,在截斷的過程中很可能會把將來精排分比較高的內容截斷掉。精排和粗排的特徵、模型結構都不一樣,粗排一般和召回的框架比較類似,是向量檢索的近似結構,特徵會交叉比較晚,出現和精排模型表達差異是很自然的情況。如果能提升一致性,也會促進業務指標上漲,因為兩邊都能抓住同樣的變化趨勢。

微博推薦即時大模型的技術演進

#下圖展示了粗排一致性迭代過程中的技術脈絡,上面是雙塔的技術線,下面是DNN 的技術線。由於雙塔的特徵交互較晚,所以加了很多雙塔特徵交叉的方式。但向量檢索的方式天花板有點太低了,所以從2022 年開始,會有DNN 分支來做粗排,這對於工程架構的壓力比較大,比如要做特徵篩選,網絡剪枝,性能優化等,而且一次性打分的條數也會較之前有減少,但打的分更好了,因此條數變少也是可以接受的。

微博推薦即時大模型的技術演進

DSSM-autowide 是基於雙塔做了類似Deep-FM 的交叉,帶來了業務指標上的增幅,但下一個項目,換新的交叉方式,提升就沒有那麼顯著了。

微博推薦即時大模型的技術演進

#因此,我們覺得基於雙塔能做出的效益是比較有限的。我們也嘗試了基於雙塔做的多任務粗排模型,但還是繞不過雙塔問題。

微博推薦即時大模型的技術演進

基於上述問題,本團隊對粗排模型進行最佳化,使用DNN 和級聯模型做Stacking 架構。

級聯模型可以用雙塔先做一層篩選,篩選之後再過濾截斷給粗排的DNN 模型,相當於在粗排這裡內部做了粗排和精排。換成 DNN 模型後,能支援更複雜的結構,更快擬合使用者興趣變化等。

微博推薦即時大模型的技術演進

級聯在框架中起了比較重要的作用,如果沒有級聯模型的話,就不太能從比較大的候選集中選出小候選集去給粗排的DNN 來使用。級聯中比較重要的是怎麼建構樣本,可以看下圖。從百萬級的物料庫,召回幾千粗排,給精排1000 內的物料,最後曝光的是20 條左右,用戶有行為的是個位數條數,整體是從更大的庫走到用戶有行為的漏斗過程。在做級聯的時候,核心點是每個部分都要進行一些取樣,組成一些比較難的 pair 和比較簡單的 pair,來給級聯模型學習。

微博推薦即時大模型的技術演進

#下圖是級聯最佳化和全域負採樣帶來的收益,這裡不做詳細介紹。

#

微博推薦即時大模型的技術演進

接下來介紹近期比較火熱的因果推論。

我們使用因果推論的動機是,給用戶推的東西,如果推所有人都喜歡的東西,用戶點擊效果也不錯,但用戶自己也有一些比較小眾的興趣,給用戶推這些小眾的物料,用戶也比較喜歡。這兩種東西對於用戶來講是一樣的,但對平台來講,能推出來更小眾的東西是更個性化的,而模型更容易推出來的是第一種,因果推斷就是來解決這種問題的。

具體的做法是去群組pairwise 樣本對,對使用者點擊且流行度低的物料,和流行度高但使用者未點擊的物料,用貝葉斯的方法做loss 訓練模型。

在我們的實踐中,因果推論在粗排和召回階段來做比在精排做更容易獲得收益。原因是精排模型比較複雜,精排已經有不錯的個性化能力,但粗排和召回即使用了DNN,也是裁剪的DNN,整個模型的個性化能力還是有差距的,在個性化能力比較差的地方使用因果推論效果肯定比在個人化能力強的地方使用效果更明顯。

微博推薦即時大模型的技術演進

四、其他技術點

1、序列重排

重排是採用beam-search 方法,設計結合NEXT 下拉模型的reward 函數,產生多種候選序列,選取最大收益的序列,擴充後效果不穩定,細節進一步優化中。

微博推薦即時大模型的技術演進


#2、圖技術

#圖技術主要包括兩部分:圖資料庫和圖embedding。對於推薦來講,如果用圖資料庫,會更方便一些,成本更低。圖 embedding 指的是遊走類的節點隨機遊走,將圖資料(通常為高維稠密的矩陣)對應為低維稠密向量的過程。圖嵌入需要捕捉到圖的拓撲結構,頂點與頂點的關係,以及其他的資訊(如子圖,連邊等),在此不#展開介紹。

微博推薦即時大模型的技術演進

推薦中可以用基於隨機遊走、圖結構、圖對比學習等演算法,做使用者與部落格文章、用戶與作者的互動/關注等召回。主流的方式還是把圖文、用戶等做成 embedding,給模型加特徵,也有一些比較前沿的嘗試方式,如直接做端到端網絡,用 GNN 來做推薦。

微博推薦即時大模型的技術演進

#下圖是目前端對端的模型,目前我們還在嘗試中,不是線上的主流量版本。

微博推薦即時大模型的技術演進

#下圖是基於圖網路產生embedding,右邊的圖是根據帳號的領域算出的相似度。對於微博來講, 根據關注關係算出 embedding 是有收益的。

微博推薦即時大模型的技術演進

#

五、問答環節

Q1:推薦資訊流很多 Item 只瀏覽不點擊,是怎麼區分是否有興趣的呢?透過清單頁上 Item 的停留時間嗎?

A1:對的,資訊流業務來講話,時長是比較重要的最佳化指標。做時長的優化指標,不太方便直接優化用戶今天整體在 APP 上停留多久,優化比較多的還是在 item 停留多久。不把時長當作優化目標來做,就比較容易推很多淺消費的內容。

Q2:訓練發生 fail over 模型即時更新會有一致性問題嗎?模型的一致性問題如何處理?

A2: 目前對於推薦的學習訓練來講,如果是cpu 的話異步式的比較多,大家不太做成那種全局有個輪次,等輪次結束之後統一收集完,更新到ps 上,再發起下輪次,因為性能問題,大家基本上不會這樣做。無論是不是即時、線上學習,都達不到強一致性。

如果你訓練發生fail over 的話,如果串流訓練的話,是記錄在資料流上,例如kafka 或是flink 上,去記載你當前方案訓練到哪的位置的,你的ps 上也有你上次訓練完的記錄,也就跟全局的差異是差不多的。

Q3:請問召回使用精排的順序會不會降低召回模型迭代上限?

A3:迭代上限姑且理解為召回的天花板,那我理解召回的天花板肯定不是要超越精排,舉例來說,如果算力現在是無窮的話,那用精排打500 萬物的分是不是對業務最好的處理方式。那召回在投入不那麼大的情況下,盡量把精排覺得最好的部分給他找出來,比如說讓他從召回裡面那6000 裡面選出的top15 和在500 萬的top15 是比較接近的,召回模組做的就比較好了。如果大家這麼理解的話,那召回使用精排的序子不會降低迭代上線,反而是朝著上限前進。不過這也是我們一家之言,大家根據自己的業務導向,可能結論不一定是放諸四海皆準的。

#

以上是微博推薦即時大模型的技術演進的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除