高維數(shù)據(jù)懲罰回歸方法:主成分回歸PCR、嶺回歸、lasso、彈性網(wǎng)絡(luò)elastic net分析基因
全文鏈接:http://tecdat.cn/?p=23378
最近我們被客戶要求撰寫關(guān)于高維數(shù)據(jù)懲罰回歸方法的研究報(bào)告,包括一些圖形和統(tǒng)計(jì)輸出。
在本文中,我們將使用基因表達(dá)數(shù)據(jù)。這個(gè)數(shù)據(jù)集包含120個(gè)樣本的200個(gè)基因的基因表達(dá)數(shù)據(jù)。這些數(shù)據(jù)來源于哺乳動物眼組織樣本的微陣列實(shí)驗(yàn)
1 介紹
在本文中,我們將研究以下主題
證明為什么低維預(yù)測模型在高維中會失敗。
進(jìn)行主成分回歸(PCR)。
使用glmnet()進(jìn)行嶺回歸、lasso 和彈性網(wǎng)elastic net
對這些預(yù)測模型進(jìn)行評估
1.1?數(shù)據(jù)集
在本文中,我們將使用基因表達(dá)數(shù)據(jù)。這個(gè)數(shù)據(jù)集包含120個(gè)樣本的200個(gè)基因的基因表達(dá)數(shù)據(jù)。這些數(shù)據(jù)來源于哺乳動物眼組織樣本的微陣列實(shí)驗(yàn)。
該數(shù)據(jù)集由兩個(gè)對象組成:
genes
: 一個(gè)120×200的矩陣,包含120個(gè)樣本(行)的200個(gè)基因的表達(dá)水平(列)。trim32
: 一個(gè)含有120個(gè)TRIM32基因表達(dá)水平的向量。
##查看剛剛加載的對象str(genes)


這個(gè)練習(xí)的目的是根據(jù)微陣列實(shí)驗(yàn)中測量的200個(gè)基因的表達(dá)水平預(yù)測TRIM32的表達(dá)水平。為此,需要從構(gòu)建中心化數(shù)據(jù)開始。我們將其存儲在兩個(gè)矩陣X和Y中。
X?<-?scale(gen,?center?=?TRUE,?scale?=?TRUE)?
Y?<-?scale(tri,?center?=?TRUE)
請記住,標(biāo)準(zhǔn)化可以避免量綱上的差異,使一個(gè)變量(基因)在結(jié)果中具有更大的影響力。對于Y向量,這不是一個(gè)問題,因?yàn)槲覀冇懻摰氖且粋€(gè)單一的變量。不進(jìn)行標(biāo)準(zhǔn)化會使預(yù)測結(jié)果可解釋為 "偏離平均值"。
1.2?奇異性詛咒
我們首先假設(shè)預(yù)測因子和結(jié)果已經(jīng)中心化,因此截距為0。我們會看到通常的回歸模型。

我們的目標(biāo)是得到β的最小二乘估計(jì)值,由以下公式給出

其中p×p矩陣(XTX)-1是關(guān)鍵! 為了能夠計(jì)算出XTX的逆,它必須是滿秩p。我們檢查一下。
dim(X)?#?120?x?200,??p?>?n!#>?[1]?120?200qr(X)$rank#>?[1]?119XtX?<-?crossprod(X)?#?更有效地計(jì)算t(X)?%*%?Xqr(XtX)$rank#>?[1]?119#??嘗試用solve進(jìn)行求解。?solve(XtX)

??
我們意識到無法計(jì)算(XTX)-1,因?yàn)?XTX)的秩小于p,因此我們無法通過最小二乘法得到β^! 這通常被稱為奇異性問題。
2?主成分回歸
處理這種奇異性的第一個(gè)方法是使用主成分繞過它。由于min(n,p)=n=120,PCA將得到120個(gè)成分,每個(gè)成分是p=200個(gè)變量的線性組合。這120個(gè)PC包含了原始數(shù)據(jù)中的所有信息。我們也可以使用X的近似值,即只使用幾個(gè)(k<120)PC。因此,我們使用PCA作為減少維度的方法,同時(shí)盡可能多地保留觀測值之間的變化。一旦我們有了這些PC,我們就可以把它們作為線性回歸模型的變量。
2.1對主成分PC的經(jīng)典線性回歸
我們首先用prcomp計(jì)算數(shù)據(jù)的PCA。我們將使用一個(gè)任意的k=4個(gè)PC的截止點(diǎn)來說明對PC進(jìn)行回歸的過程。
k?<-?4?#任意選擇k=4Vk?<-?pca$rotation[,?1:k]?#?載荷矩陣Zk?<-?pca$x[,?1:k]?#?分?jǐn)?shù)矩陣#?在經(jīng)典的線性回歸中使用這些分?jǐn)?shù)

由于X和Y是中心化的,截距近似為0。
輸出結(jié)果顯示,PC1和PC4的β估計(jì)值與0相差很大(在p<0.05),但是結(jié)果不能輕易解釋,因?yàn)槲覀儧]有對PC的直接解釋。
2.2 使用軟件包
PCR也可以直接在數(shù)據(jù)上進(jìn)行(所以不必先手動進(jìn)行PCA)。在使用這個(gè)函數(shù)時(shí),你必須牢記幾件事。
要使用的成分(PC)的數(shù)量是通過參數(shù)ncomp來確定
該函數(shù)允許你首先對預(yù)測因子進(jìn)行標(biāo)準(zhǔn)化(set scale = TRUE)和中心化(set center = TRUE)(在這里的例子中,XX已經(jīng)被中心化和標(biāo)準(zhǔn)化了)。
你可以用與使用lm()相同的方式使用pcr()函數(shù)。使用函數(shù)summary()可以很容易地檢查得出的擬合結(jié)果,但輸出結(jié)果看起來與你從lm得到的結(jié)果完全不同。
#X已經(jīng)被標(biāo)準(zhǔn)化和中心化了

??
首先,輸出顯示了數(shù)據(jù)維度和使用的擬合方法。在本例中,是基于SVD的主成分PC計(jì)算。summary()函數(shù)還提供了使用不同數(shù)量的成分在預(yù)測因子和響應(yīng)中解釋方差的百分比。例如,第一個(gè)PC只解釋了所有方差的61.22%,或預(yù)測因子中的信息,它解釋了結(jié)果中方差的62.9%。請注意,對于這兩種方法,主成分?jǐn)?shù)量的選擇都是任意選擇的,即4個(gè)。
在后面的階段,我們將研究如何選擇預(yù)測誤差最小的成分?jǐn)?shù)。
3 嶺回歸、Lasso?和彈性網(wǎng)Elastic Nets
嶺回歸、Lasso 回歸和彈性網(wǎng)Elastic Nets都是密切相關(guān)的技術(shù),基于同樣的想法:在估計(jì)函數(shù)中加入一個(gè)懲罰項(xiàng),使(XTX)再次成為滿秩,并且是可逆的。可以使用兩種不同的懲罰項(xiàng)或正則化方法。
L1正則化:這種正則化在估計(jì)方程中加入一個(gè)γ1‖β‖1。該項(xiàng)將增加一個(gè)基于系數(shù)大小絕對值的懲罰。這被Lasso回歸所使用。

L2正則化:這種正則化在估計(jì)方程中增加了一個(gè)項(xiàng)γ2‖β‖22。這個(gè)懲罰項(xiàng)是基于系數(shù)大小的平方。這被嶺回歸所使用。

彈性網(wǎng)結(jié)合了兩種類型的正則化。它是通過引入一個(gè)α混合參數(shù)來實(shí)現(xiàn)的,該參數(shù)本質(zhì)上是將L1和L2規(guī)范結(jié)合在一個(gè)加權(quán)平均中。?

4 練習(xí):嶺回歸的驗(yàn)證
在最小平方回歸中,估計(jì)函數(shù)的最小化

?可以得到解

。
對于嶺回歸所使用的懲罰性最小二乘法準(zhǔn)則,你要最小化

,可以得到解

。?
其中II是p×p的識別矩陣。
脊參數(shù)γ將系數(shù)縮減為0,γ=0相當(dāng)于OLS(無縮減),γ=+∞相當(dāng)于將所有β^設(shè)置為0。最佳參數(shù)位于兩者之間,需要由用戶進(jìn)行調(diào)整。
習(xí)題
使用R解決以下練習(xí)。
驗(yàn)證

?秩為200,對于任何一個(gè)?

?.
gamma?<-?2?#?#?計(jì)算懲罰矩陣XtX_gammaI?<-?XtX?+?(gamma?*?diag(p))
dim(XtX_gammaI)#>?[1]?200?200qr(XtX_gammaI)$rank?==?200?#?#>?[1]?TRUE
向下滑動查看結(jié)果▼
檢查

的逆值是否可以計(jì)算出來。
#?是的,可以被計(jì)算。XtX_gammaI_inv?<-?solve(XtX_gammaI)

向下滑動查看結(jié)果▼
最后,計(jì)算

。
##?計(jì)算嶺β估計(jì)值##?使用`drop`來刪除維度并創(chuàng)建向量length(ridge_betas)?#?每個(gè)基因都有一個(gè)#>?[1]?200

我們現(xiàn)在已經(jīng)手動計(jì)算了嶺回歸的估計(jì)值。
向下滑動查看結(jié)果▼
5?用glmnet進(jìn)行嶺回歸和套索
lasso回歸
glmnet允許你擬合所有三種類型的回歸。使用哪種類型,可以通過指定alpha參數(shù)來決定。對于嶺回歸,你將alpha設(shè)置為0,而對于套索lasso回歸,你將alpha設(shè)置為1。其他介于0和1之間的α值將適合一種彈性網(wǎng)的形式。這個(gè)函數(shù)的語法與其他的模型擬合函數(shù)略有不同。你必須傳遞一個(gè)x矩陣以及一個(gè)y向量。
控制懲罰 "強(qiáng)度 "的gamma值可以通過參數(shù)lambda傳遞。函數(shù)glmnet()還可以進(jìn)行搜索,來找到最佳的擬合伽馬值。這可以通過向參數(shù)lambda傳遞多個(gè)值來實(shí)現(xiàn)。如果不提供,glmnet將根據(jù)數(shù)據(jù)自己生成一個(gè)數(shù)值范圍,而數(shù)值的數(shù)量可以用nlambda參數(shù)控制。這通常是使用glmnet的推薦方式,詳見glmnet。
示范:嶺回歸?
讓我們進(jìn)行嶺回歸,以便用200個(gè)基因探針數(shù)據(jù)預(yù)測TRIM32基因的表達(dá)水平。我們可以從使用γ值為2開始。
glmnet(X,?Y,?alpha?=?0,?lambda?=?gamma)#看一下前10個(gè)系數(shù)
第一個(gè)系數(shù)是截距,基本上也是0。但γ的值為2可能不是最好的選擇,所以讓我們看看系數(shù)在γ的不同值下如何變化。
我們創(chuàng)建一個(gè)γ值的網(wǎng)格,也就是作為glmnet函數(shù)的輸入值的范圍。請注意,這個(gè)函數(shù)的lambda參數(shù)可以采用一個(gè)值的向量作為輸入,允許用相同的輸入數(shù)據(jù)但不同的超參數(shù)來擬合多個(gè)模型。
grid?<-?seq(1,?1000,?by?=?10)??#?1到1000,步驟為10#?繪制系數(shù)與對數(shù)?lambda序列的對比圖!plot(ridge_mod_grid)#?在gamma?=?2處添加一條垂直線
這張圖被稱為系數(shù)曲線圖,每條彩線代表回歸模型中的一個(gè)系數(shù)β^,并顯示它們?nèi)绾坞S著γ(對數(shù))1值的增加而變化。
點(diǎn)擊標(biāo)題查閱往期內(nèi)容
r語言中對LASSO回歸,Ridge嶺回歸和彈性網(wǎng)絡(luò)Elastic Net模型實(shí)現(xiàn)
左右滑動查看更多
01
02
03
04
請注意,對于更高的γ值,系數(shù)估計(jì)值變得更接近于0,顯示了嶺懲罰的收縮效應(yīng)。
與PC回歸的例子類似,我們相當(dāng)隨意地選擇了γ=2和網(wǎng)格。我們隨后會看到,如何選擇γ,使預(yù)測誤差最小。
6?練習(xí): Lasso 回歸
Lasso 回歸也是懲罰性回歸的一種形式,但我們沒有像最小二乘法和嶺回歸那樣的β^的分析解。為了擬合一個(gè)Lasso 模型,我們再次使用glmnet()函數(shù)。然而,這一次我們使用的參數(shù)是α=1
任務(wù)
驗(yàn)證設(shè)置α=1確實(shí)對應(yīng)于使用第3節(jié)的方程進(jìn)行套索回歸。
用glmnet函數(shù)進(jìn)行Lasso 套索回歸,Y為因變量,X為預(yù)測因子。
你不必在這里提供一個(gè)自定義的γ(lambda)值序列,而是可以依靠glmnet的默認(rèn)行為,即根據(jù)數(shù)據(jù)選擇γ值的網(wǎng)格。
#?請注意,glmnet()函數(shù)可以自動提供伽馬值#?默認(rèn)情況下,它使用100個(gè)lambda值的序列
向下滑動查看結(jié)果▼
繪制系數(shù)曲線圖并進(jìn)行解釋。
plot(lasso_model
請注意,非零系數(shù)的數(shù)量顯示在圖的頂部。在lasso回歸的情況下,與嶺回歸相比,正則化要不那么平滑,一些系數(shù)在較高的γ值下會增加,然后急劇下降到0。與嶺回歸相反,lasso最終將所有系數(shù)縮減為0。
向下滑動查看結(jié)果▼
7?預(yù)測模型的評估和超參數(shù)的調(diào)整
首先,我們將把我們的原始數(shù)據(jù)分成訓(xùn)練集和測試集來驗(yàn)證我們的模型。訓(xùn)練集將被用來訓(xùn)練模型和調(diào)整超參數(shù),而測試集將被用來評估我們最終模型的樣本外性能。如果我們使用相同的數(shù)據(jù)來擬合和測試模型,我們會得到有偏見的結(jié)果。
在開始之前,我們使用set.seed()函數(shù)來為R的隨機(jī)數(shù)生成器設(shè)置一個(gè)種子,這樣我們就能得到與下面所示完全相同的結(jié)果。一般來說,在進(jìn)行交叉驗(yàn)證等包含隨機(jī)性元素的分析時(shí),設(shè)置一個(gè)隨機(jī)種子是很好的做法,這樣所得到的結(jié)果就可以在以后的時(shí)間里重現(xiàn)。
我們首先使用sample()函數(shù)將樣本集分成兩個(gè)子集,從原來的120個(gè)觀測值中隨機(jī)選擇80個(gè)觀測值的子集。我們把這些觀測值稱為訓(xùn)練集。其余的觀察值將被用作測試集。
set.seed(1)#?從X的行中隨機(jī)抽取80個(gè)ID(共120個(gè))。trainID?<-?sample(nrow(X),?80)#?訓(xùn)練數(shù)據(jù)trainX?<-?X[trainID,?]trainY?<-?Y[trainID]#?測試數(shù)據(jù)testX?<-?X[-trainID,?]testY?<-?Y[-trainID]
為了使以后的模型擬合更容易一些,我們還將創(chuàng)建2個(gè)數(shù)據(jù)框,將訓(xùn)練和測試數(shù)據(jù)的因變量和預(yù)測因素結(jié)合起來。?
7.1?模型評估
我們對我們的模型的樣本外誤差感興趣,即我們的模型在未見過的數(shù)據(jù)上的表現(xiàn)如何。?這將使我們能夠比較不同類別的模型。對于連續(xù)結(jié)果,我們將使用平均平方誤差(MSE)(或其平方根版本,RMSE)。
該評估使我們能夠在數(shù)據(jù)上比較不同類型模型的性能,例如PC主成分回歸、嶺回歸和套索lasso回歸。然而,我們?nèi)匀恍枰ㄟ^選擇最佳的超參數(shù)(PC回歸的PC數(shù)和lasso和山脊的γ數(shù))來找到這些類別中的最佳模型。為此,我們將在訓(xùn)練集上使用k-fold交叉驗(yàn)證。
7.2?調(diào)整超參數(shù)
測試集只用于評估最終模型。為了實(shí)現(xiàn)這個(gè)最終模型,我們需要找到最佳的超參數(shù),即對未見過的數(shù)據(jù)最能概括模型的超參數(shù)。我們可以通過在訓(xùn)練數(shù)據(jù)上使用k倍交叉驗(yàn)證(CVk)來估計(jì)這一點(diǎn)。
對于任何廣義線性模型,CVk估計(jì)值都可以用cv.glm()函數(shù)自動計(jì)算出來。
8?例子: PC回歸的評估
我們從PC回歸開始,使用k-fold交叉驗(yàn)證尋找使MSE最小的最佳PC數(shù)。然后,我們使用這個(gè)最優(yōu)的PC數(shù)來訓(xùn)練最終模型,并在測試數(shù)據(jù)上對其進(jìn)行評估。
8.1?用k-fold交叉驗(yàn)證來調(diào)整主成分的數(shù)量
方便的是,pcr函數(shù)有一個(gè)k-fold交叉驗(yàn)證的實(shí)現(xiàn)。我們只需要設(shè)置validation = CV和segments = 20就可以用PC回歸進(jìn)行20折交叉驗(yàn)證。如果我們不指定ncomp,pcr將選擇可用于CV的最大數(shù)量的PC。
請注意,我們的訓(xùn)練數(shù)據(jù)trainX由80個(gè)觀測值(行)組成。如果我們執(zhí)行20折的CV,這意味著我們將把數(shù)據(jù)分成20組,所以每組由4個(gè)觀測值組成。在每個(gè)CV周期中,有一個(gè)組將被排除,模型將在剩余的組上進(jìn)行訓(xùn)練。這使得我們在每個(gè)CV周期有76個(gè)訓(xùn)練觀測值,所以可以用于線性回歸的最大成分?jǐn)?shù)是75。
##?為可重復(fù)性設(shè)置種子,kCV是一個(gè)隨機(jī)的過程!set.seed(123)##Y ~ . "符號的意思是:用數(shù)據(jù)中的每個(gè)其他變量來擬合Y。summary(pcr_cv)
我們可以繪制每個(gè)成分?jǐn)?shù)量的預(yù)測均方根誤差(RMSEP),如下所示。
plot(pcr_cv,?plottype?=?"validation")
?

選擇最佳的成分?jǐn)?shù)。這里我們使用 "one-sigma "方法,它返回RMSE在絕對最小值的一個(gè)標(biāo)準(zhǔn)誤差內(nèi)的最低成分?jǐn)?shù)。
plot(pcr,?method?=?"onesigma")

這個(gè)結(jié)果告訴我們,我們模型的最佳成分?jǐn)?shù)是13。
8.2?對測試數(shù)據(jù)進(jìn)行驗(yàn)證
我們現(xiàn)在使用最佳成分?jǐn)?shù)來訓(xùn)練最終的PCR模型。然后通過對測試數(shù)據(jù)進(jìn)行預(yù)測并計(jì)算MSE來驗(yàn)證這個(gè)模型。
我們定義了一個(gè)自定義函數(shù)來計(jì)算MSE。請注意,可以一次性完成預(yù)測和MSE計(jì)算。但是我們自己的函數(shù)在后面的lasso和ridge嶺回歸中會派上用場。
#平均平方誤差##?obs:?觀測值;?pred:?預(yù)測值MSE?<-?function(obs,?pred)
pcr_preds?<-?predict(model,?newdata?=?test_data,?ncomp?=?optimal_ncomp)

這個(gè)值本身并不能告訴我們什么,但是我們可以用它來比較我們的PCR模型和其他類型的模型。
最后,我們將我們的因變量(TRIM32基因表達(dá))的預(yù)測值與我們測試集的實(shí)際觀察值進(jìn)行對比。
plot(pcr_model,?line?=?TRUE)

9 練習(xí):評估和比較預(yù)測模型
對訓(xùn)練數(shù)據(jù)(trainX, trainY)進(jìn)行20次交叉驗(yàn)證的lasso回歸。繪制結(jié)果并選擇最佳的λ(γ)參數(shù)。用選定的lambda擬合一個(gè)最終模型,并在測試數(shù)據(jù)上驗(yàn)證它。
lasso_cv#>


請注意,我們可以從CV結(jié)果中提取擬合的 lasso回歸對象,并像以前一樣制作系數(shù)曲線圖。?

我們可以尋找能產(chǎn)生最佳效果的伽瑪值。這里有兩種可能性。
lambda.min
: 給出交叉驗(yàn)證最佳結(jié)果的γ值。lambda.1se
:γ的最大值,使MSE在交叉驗(yàn)證的最佳結(jié)果的1個(gè)標(biāo)準(zhǔn)誤差之內(nèi)。

我們將在這里使用lambda.min來擬合最終模型,并在測試數(shù)據(jù)上生成預(yù)測。請注意,我們實(shí)際上不需要重新進(jìn)行擬合,我們只需要使用我們現(xiàn)有的lasso_cv對象,它已經(jīng)包含了lambda值范圍的擬合模型。我們可以使用predict函數(shù)并指定s參數(shù)(在這種情況下設(shè)置lambda)來對測試數(shù)據(jù)進(jìn)行預(yù)測。?

向下滑動查看結(jié)果▼
對嶺回歸做同樣的處理。


請注意,我們可以從CV結(jié)果中提取擬合的嶺回歸對象,并制作系數(shù)曲線圖。

我們可以尋找能產(chǎn)生最佳效果的伽瑪值。這里有兩種可能性。
lambda.min
: 給出交叉驗(yàn)證最佳結(jié)果的γ值。lambda.1se
: γ的最大值,使MSE在交叉驗(yàn)證的最佳結(jié)果的1個(gè)標(biāo)準(zhǔn)誤差之內(nèi)。

我們在這里使用lambda.min來擬合最終的模型并在測試數(shù)據(jù)上生成預(yù)測。請注意,我們實(shí)際上不需要重新進(jìn)行擬合,我們只需要使用我們現(xiàn)有的ridge_cv對象,它已經(jīng)包含了lambda值范圍的擬合模型。我們可以使用predict函數(shù)并指定s參數(shù)(在這種情況下混亂地設(shè)置lambda)來對測試數(shù)據(jù)進(jìn)行預(yù)測。
ridge_preds?<-?predict##計(jì)算MSE

向下滑動查看結(jié)果▼
在所考慮的模型(PCR、lasso、嶺回歸)中,哪一個(gè)表現(xiàn)最好?
模型MSEPCR0.3655052Lasso0.3754368Ridge0.3066121
向下滑動查看結(jié)果▼
注意:R中的log()默認(rèn)是自然對數(shù)(以e為底),我們也會在文本中使用這個(gè)符號(比如上面圖中的x軸標(biāo)題)。這可能與你所習(xí)慣的符號(ln())不同。要在R中取不同基數(shù)的對數(shù),你可以指定log的基數(shù)=參數(shù),或者使用函數(shù)log10(x)和log2(x)分別代表基數(shù)10和2?

本文摘選?《?R語言高維數(shù)據(jù)懲罰回歸方法:主成分回歸PCR、嶺回歸、lasso、彈性網(wǎng)絡(luò)elastic net分析基因數(shù)據(jù)(含練習(xí)題)?》?,點(diǎn)擊“閱讀原文”獲取全文完整資料。

點(diǎn)擊標(biāo)題查閱往期內(nèi)容
Python高維變量選擇:SCAD平滑剪切絕對偏差懲罰、Lasso懲罰函數(shù)比較
R語言懲罰logistic邏輯回歸(LASSO,嶺回歸)高維變量選擇的分類模型案例
R使用LASSO回歸預(yù)測股票收益
廣義線性模型glm泊松回歸的lasso、彈性網(wǎng)絡(luò)分類預(yù)測學(xué)生考試成績數(shù)據(jù)和交叉驗(yàn)證
貝葉斯分位數(shù)回歸、lasso和自適應(yīng)lasso貝葉斯分位數(shù)回歸分析免疫球蛋白、前列腺癌數(shù)據(jù)
R語言RSTAN MCMC:NUTS采樣算法用LASSO 構(gòu)建貝葉斯線性回歸模型分析職業(yè)聲望數(shù)據(jù)
r語言中對LASSO回歸,Ridge嶺回歸和彈性網(wǎng)絡(luò)Elastic Net模型實(shí)現(xiàn)
R語言高維數(shù)據(jù)懲罰回歸方法:主成分回歸PCR、嶺回歸、lasso、彈性網(wǎng)絡(luò)elastic net分析基因數(shù)據(jù)(含練習(xí)題)
Python中LARS和Lasso回歸之最小角算法Lars分析波士頓住房數(shù)據(jù)實(shí)例
R語言Bootstrap的嶺回歸和自適應(yīng)LASSO回歸可視化
R語言Lasso回歸模型變量選擇和糖尿病發(fā)展預(yù)測模型R語言實(shí)現(xiàn)貝葉斯分位數(shù)回歸、lasso和自適應(yīng)lasso貝葉斯分位數(shù)回歸分析
基于R語言實(shí)現(xiàn)LASSO回歸分析
R語言用LASSO,adaptive LASSO預(yù)測通貨膨脹時(shí)間序列
R語言自適應(yīng)LASSO 多項(xiàng)式回歸、二元邏輯回歸和嶺回歸應(yīng)用分析
R語言懲罰logistic邏輯回歸(LASSO,嶺回歸)高維變量選擇的分類模型案例
Python中的Lasso回歸之最小角算法LARS
r語言中對LASSO回歸,Ridge嶺回歸和彈性網(wǎng)絡(luò)Elastic Net模型實(shí)現(xiàn)
r語言中對LASSO回歸,Ridge嶺回歸和Elastic Net模型實(shí)現(xiàn)
R語言實(shí)現(xiàn)LASSO回歸——自己編寫LASSO回歸算法
R使用LASSO回歸預(yù)測股票收益
python使用LASSO回歸預(yù)測股票收益Python中LARS和Lasso回歸之最小角算法Lars分析波士頓住房數(shù)據(jù)實(shí)例
R語言Bootstrap的嶺回歸和自適應(yīng)LASSO回歸可視化
R語言Lasso回歸模型變量選擇和糖尿病發(fā)展預(yù)測模型R語言實(shí)現(xiàn)貝葉斯分位數(shù)回歸、lasso和自適應(yīng)lasso貝葉斯分位數(shù)回歸分析
基于R語言實(shí)現(xiàn)LASSO回歸分析
R語言用LASSO,adaptive LASSO預(yù)測通貨膨脹時(shí)間序列
R語言自適應(yīng)LASSO 多項(xiàng)式回歸、二元邏輯回歸和嶺回歸應(yīng)用分析
R語言懲罰logistic邏輯回歸(LASSO,嶺回歸)高維變量選擇的分類模型案例
Python中的Lasso回歸之最小角算法LARS
r語言中對LASSO回歸,Ridge嶺回歸和彈性網(wǎng)絡(luò)Elastic Net模型實(shí)現(xiàn)
r語言中對LASSO回歸,Ridge嶺回歸和Elastic Net模型實(shí)現(xiàn)
R語言實(shí)現(xiàn)LASSO回歸——自己編寫LASSO回歸算法
R使用LASSO回歸預(yù)測股票收益
python使用LASSO回歸預(yù)測股票收益