另外兩個(gè)回歸模型:Lasso和Ridge
2023-03-31 22:52 作者:時(shí)晴charles | 我要投稿

同樣來自哥大的工程課程machine learning,這是一堂由IBM的首席研究員講授的機(jī)器學(xué)習(xí)課程。數(shù)據(jù)和背景其實(shí)和上一篇是在R中用Dyplr Rename是一樣的。
先丟數(shù)學(xué)公式上的對比:

用人類可以聽懂的話來說,就是這兩個(gè)回歸的算法,用了兩種不同的方法進(jìn)一步規(guī)范了縮小誤差的方式。這兩個(gè)方法,一個(gè)是利用新增的“懲罰項(xiàng)”的參數(shù)的平方(L2),一個(gè)則是這些參數(shù)的絕對值(L1) ,來讓損失函數(shù)更加嚴(yán)格(你算得不太行,我就要懲罰你,你的標(biāo)準(zhǔn)也就更嚴(yán)格了)。
現(xiàn)在我們就在R里面用兩個(gè)方法實(shí)現(xiàn)最小化的RMSE吧~?
Ridge:

Lasso:?

嶺回歸放棄了部分精度,以更好地?cái)M合有缺陷的數(shù)據(jù)集,這比普通回歸更實(shí)用。
Lasso通常適用于具有高維度的大型數(shù)據(jù)集。它可以選擇最相關(guān)的變量并完成其工作,上圖就顯示部分變量是沒有系數(shù)的,意味著它們不參與擬合。這個(gè)話題我們后續(xù)會(huì)在python內(nèi)容中進(jìn)行展開。