在個性化推薦問題中, GBRank和RankingSVM哪個效果更好一些?

時間 2021-05-11 19:21:49

1樓:yymWater

這兩種方法相比效果上GBRank肯定是更優的。GBrank是提出乙個pairwise loss,然後用使用functional gradient decent進行優化。而rank-svm基於線性svm,所以如果想提公升效果需要構造非線性的特徵或者使用核函式(工業界基本上資料量太大沒法用)。

有個觀點和肖寒回答不一致,就是GBrank處理大資料集不見得很快,訓練時間跟迭代次數有很大關係。

2樓:richard huang

博主的問題其實是兩個不同的維度,GBRank和RankingSVM是L2R中兩種不同的模型,主要用於調整搜尋結果順序,訓練的資料來自於不同使用者不同query的不同行為資料,目的是使使用者行為提前,其參考的是所有使用者的行為資料,而博主想做的是個性化推薦,個性化推薦主要依賴於不同使用者的特定歷史行為資料。

3樓:

這兩個都屬於learning to rank也就是排序學習演算法中pair-wise型別,相關的還有point-wise和list-wise型別。根據維基百科Learning to rank的介紹,GBRank是2023年提出的,RankSVM是2023年提出的。

LambdaMART是2023年提出的,並且取得了Yahoo! Learning to Rank Challenge的冠軍,之前根據我的使用經驗也是LambdaMART效果更好些,所以可以考慮嘗試LambdaMART。

The Lemur Project / Wiki / RankLib這個是個很好的包,裡邊有很多相關演算法。

什麼是個性化教育,怎樣做好個性化教育?

Jason 教師,教書育人者,學習不僅僅包含知識點,還包括思維和能力。在ngss美國下一代科學素養標準中的核心教育原則。個性化可以更好的關注到每個孩子 和孩子當同學 了解孩子,理解孩子,尊重孩子。個性化教育是我所希望的,但是實施起來好難。所有的教育想要得到良性的效果,離不開的是和諧的親子關係,就是雙...

未來如何讓個性化推薦更有驚喜感?

1.同乙個推薦位由非同一種推薦演算法生成內容2.引入Exploitation Exploration 3.擴大使用者瀏覽歷史集合 加入attention機制修正 4.常規訓練中對冷門商品加權 陳運文 驚喜感的程度,即驚喜度 serendipity 是最近這幾年推薦系統領域最熱門的話題。如果推薦結果和...

個性化推薦為什麼這麼快就蔓延開了?

Zhu Gaia 現在消費者的主動性越來越強,以往的強制性的 被動的投放廣告已經不再能適應現在的趨勢。從消費者的角度換位思考,根據他平常的上網習慣,搜尋頻率,興趣愛好勾勒出相對準確的人群畫像,然後給對的人傳達對的資訊,既能提高產品的轉化率,對消費者來說也省去了自己搜尋的麻煩,是乙個雙贏的事情。 Ca...