国产一级a片免费看高清,亚洲熟女中文字幕在线视频,黄三级高清在线播放,免费黄色视频在线看

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
Coursera機器學習筆記(六)
發(fā)表于 |


一. 過擬合

如下圖所示, 使用三種不同的多項式作為假設(shè)函數(shù)對數(shù)據(jù)進行擬合, 從左一和右一分別為過擬合和欠擬合.


對率回歸:

解決過擬合問題大致分為兩種, 一種是減少特征的數(shù)量, 可以人工選擇一些比較重要的特征留下, 也可以使用模型選擇算法(Model selection algorithm,后面的課程會介紹);另一種就是正則化(Regularization).

二. 正則化

如圖所示的兩個假設(shè)函數(shù), 其中第二個為過擬合. 那么該如何改變代價函數(shù)能夠讓最中的假設(shè)函數(shù)不過擬合? 對比兩個假設(shè)函數(shù)我們可以看到, 它們的區(qū)別就在于第二個多了兩個高階項. 也就是說, 我們不希望出現(xiàn)后面兩個高階項, 即希望θ3, θ4越小越好.


通過上面的想法, 我們把θ3, θ4放到代價函數(shù)里, 并且加上很大的權(quán)重(1000):
J(θ)=12mi=1m(hθ(x(i))?y(i))2+1000θ32+1000θ42
現(xiàn)在如果要最小化代價函數(shù), 那么最后兩項也必須得最小. 這個時候, 就有θ30, θ40. 從而這個四次多項式就變成了一個二次多項式, 解決了過擬合的問題.

對于正則化的一般思路是, 減少特征的數(shù)量, 降低模型的復(fù)雜度. 所以我們要對每個參數(shù)進行懲罰, 從而得到’更簡單’的并且可以防止過擬合的模型. 但是在實際問題中我們很難判斷哪些特征比較重要, 所以對每一個參數(shù)(除了第一個)參數(shù)進行懲罰, 將代價函數(shù)改為:

J(θ)=12m[i=1m(hθ(x(i))?y(i))2+λi=1nθj2]
其中, λi=1nθj2叫做正則化項(Regularization Term), λ叫做正則化參數(shù)(Regularization Parameter). λ的作用就是在”更好地擬合數(shù)據(jù)”和”防止過擬合”之間權(quán)衡.


如過λ過大的話, 就會導致θ1、θ2、θ3…近似于0, 這樣我們的假設(shè)函數(shù)就為:hθ(x)=θ0. 這時就變成了欠擬合(Underfit). 所以需要選擇一個合適的λ. 后面的課程會講到自動選擇合適的λ的方法.

三. 正則化線性回歸

通過正則化之后的J(θ)我們可以得到對應(yīng)的梯度下降算法, 如下圖所示. 因為我們不對θ0進行懲罰, 所以將θ0的規(guī)則單獨寫出來, 其余的參數(shù)更新規(guī)則如下圖第三行公式. 公式前半部分1?αλm是一個比1小一點點的數(shù)(教授舉了個例子大概是0.99), 而公式的后半部分和沒有進行正則化的梯度下降的公式的后半部分是完全一樣的. 所以區(qū)別就在于前半部分會將θj縮小(因為乘了一個小于1的數(shù)).


同樣, 在正規(guī)方程中, 我們只需要在公式中加上一部分如下圖所示.

即:
θ=(XTX+λ[000000100000100000100000000001])?1XTy
并且對于正則化后的正規(guī)方程, 只要λ>0, 括號里的那一項總是可逆的:

四. 正則化對率回歸

類似地, 正則化邏輯回歸中的代價函數(shù)和梯度下降如下圖所示.



下圖是使用正則化的高級優(yōu)化算法, 只需要在計算jVal時在后面加上一個正則化項以及在梯度后面減去一個λmθj.

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊舉報
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
約束優(yōu)化方法之拉格朗日乘子法與KKT條件
RankNet與LambdaRank
FTRL代碼實現(xiàn)
線性回歸與嶺回歸參數(shù)向量公式推導
概率論 各種分布及其期望、方差、分布函數(shù)
泊松分布的期望和方差推導
更多類似文章 >>
生活服務(wù)
分享 收藏 導長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服