刷pos機顯示參數(shù),xgboost參數(shù)調(diào)整筆記

 新聞資訊  |   2023-04-24 09:48  |  投稿人:pos機之家

網(wǎng)上有很多關于刷pos機顯示參數(shù),xgboost參數(shù)調(diào)整筆記的知識,也有很多人為大家解答關于刷pos機顯示參數(shù)的問題,今天pos機之家(www.dsth100338.com)為大家整理了關于這方面的知識,讓我們一起來看下吧!

本文目錄一覽:

1、刷pos機顯示參數(shù)

刷pos機顯示參數(shù)

xgboost是目前最火熱的模型之一

調(diào)參是機器學習的黑暗藝術,通常最優(yōu)的模型參數(shù)依賴于場景,基本上沒有一個普適的方法。xgboost是現(xiàn)階段使用特別多的一個模型,這里只能一個簡單的調(diào)參指引

理解偏置-方差的權衡

這個偏置-方差 權衡的概念是一般機器學習或者統(tǒng)計課程當中的基本概念。其基本思路就是如果我們允許模型變得更加復雜,例如加深gbdt的每棵樹,模型就擁有更好的逼近能力,從而得到偏置更小的模型,但是我們需要更多的訓練數(shù)據(jù)。大多數(shù)xgboost中的參數(shù)都是偏置-方差的權衡。最好的參數(shù)會權衡好最終模型的復雜程度和預測能力。這里將從過擬合控制和非平衡數(shù)據(jù)出發(fā)考慮參數(shù)

控制過擬合:

當我們觀察到訓練的時候準確率非常高,但是測試準確率很低的時候,就是模型過擬合的時候通常xgboost的使用中,我們有兩個方法去控制過擬合現(xiàn)象

第一個方法是直接控制模型的復雜度

這里面包括max_depth,min_child_weight和gamma

第二種方法是在模型中添加隨機性來提高魯棒性

包括subsample和colsample_bytree參數(shù)

我們還可以降低步長eta,但是需要記得同時提高樹的棵樹

處理非平衡數(shù)據(jù)集

通常而言廣告的點擊率預估數(shù)據(jù)集都是非平衡的。這其實會影響最終xgboost學習得到的模型,通常我們有兩個方法來改善

如果最終模型是為了提高預測的auc

調(diào)整scale_pos_weight平衡正負樣本的權重

使用auc來做驗證

如果最終模型看重預測的正確率

通過設置參數(shù)max_delta_step來幫助模型收斂

以上就是關于刷pos機顯示參數(shù),xgboost參數(shù)調(diào)整筆記的知識,后面我們會繼續(xù)為大家整理關于刷pos機顯示參數(shù)的知識,希望能夠幫助到大家!

轉發(fā)請帶上網(wǎng)址:http://www.dsth100338.com/news/32817.html

你可能會喜歡:

版權聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權/違法違規(guī)的內(nèi)容, 請發(fā)送郵件至 babsan@163.com 舉報,一經(jīng)查實,本站將立刻刪除。