網(wǎng)上有很多關于刷pos機顯示參數(shù),xgboost參數(shù)調(diào)整筆記的知識,也有很多人為大家解答關于刷pos機顯示參數(shù)的問題,今天pos機之家(www.dsth100338.com)為大家整理了關于這方面的知識,讓我們一起來看下吧!
本文目錄一覽:
刷pos機顯示參數(shù)
xgboost是目前最火熱的模型之一
調(diào)參是機器學習的黑暗藝術,通常最優(yōu)的模型參數(shù)依賴于場景,基本上沒有一個普適的方法。xgboost是現(xiàn)階段使用特別多的一個模型,這里只能一個簡單的調(diào)參指引
理解偏置-方差的權衡
這個偏置-方差 權衡的概念是一般機器學習或者統(tǒng)計課程當中的基本概念。其基本思路就是如果我們允許模型變得更加復雜,例如加深gbdt的每棵樹,模型就擁有更好的逼近能力,從而得到偏置更小的模型,但是我們需要更多的訓練數(shù)據(jù)。大多數(shù)xgboost中的參數(shù)都是偏置-方差的權衡。最好的參數(shù)會權衡好最終模型的復雜程度和預測能力。這里將從過擬合控制和非平衡數(shù)據(jù)出發(fā)考慮參數(shù)
控制過擬合:
當我們觀察到訓練的時候準確率非常高,但是測試準確率很低的時候,就是模型過擬合的時候通常xgboost的使用中,我們有兩個方法去控制過擬合現(xiàn)象
第一個方法是直接控制模型的復雜度
這里面包括max_depth,min_child_weight和gamma
第二種方法是在模型中添加隨機性來提高魯棒性
包括subsample和colsample_bytree參數(shù)
我們還可以降低步長eta,但是需要記得同時提高樹的棵樹
處理非平衡數(shù)據(jù)集
通常而言廣告的點擊率預估數(shù)據(jù)集都是非平衡的。這其實會影響最終xgboost學習得到的模型,通常我們有兩個方法來改善
如果最終模型是為了提高預測的auc
調(diào)整scale_pos_weight平衡正負樣本的權重
使用auc來做驗證
如果最終模型看重預測的正確率
通過設置參數(shù)max_delta_step來幫助模型收斂
以上就是關于刷pos機顯示參數(shù),xgboost參數(shù)調(diào)整筆記的知識,后面我們會繼續(xù)為大家整理關于刷pos機顯示參數(shù)的知識,希望能夠幫助到大家!
