機(jī)器學(xué)習(xí)融合模型stacking14條經(jīng)驗(yàn)總結(jié)和5個(gè)成功案例(互聯(lián)網(wǎng)最全,硬核收藏)


我看了很多關(guān)于融合模型stacking文章,很多作者傾向于贊美融合模型stacking,對(duì)其缺點(diǎn)輕描淡寫,這容易誤導(dǎo)初學(xué)者。一葉障目就是這意思。
我的很多學(xué)員喜歡用融合模型作為論文或?qū)@麆?chuàng)新點(diǎn),這是一個(gè)熱門技術(shù)。
最近有個(gè)同學(xué)在論文建模咨詢中問到融合模型stacking真的可靠嗎?這一問讓我深思,我覺得寫這篇文章讓大家更清楚認(rèn)識(shí)融合模型stacking。這篇文章是我數(shù)年長(zhǎng)期實(shí)驗(yàn)對(duì)融合模型stacking經(jīng)驗(yàn)總結(jié)。寫這篇文章也花了半個(gè)月時(shí)間,大部分實(shí)驗(yàn)用于實(shí)驗(yàn)。這篇文章比較長(zhǎng),涉及內(nèi)容比較多,實(shí)驗(yàn)數(shù)據(jù)集比較多,估計(jì)短時(shí)間難以看完,大家可以先收藏此文章,以后慢慢琢磨,幫助大家少走萬年坑。
此文章比較適合融合模型愛好者,模型競(jìng)賽參賽者,正在寫論文,專利學(xué)員。
stacking堆疊或堆疊泛化是一種集成機(jī)器學(xué)習(xí)算法。
它使用元學(xué)習(xí)算法來學(xué)習(xí)如何最好地結(jié)合來自兩個(gè)或多個(gè)基礎(chǔ)機(jī)器學(xué)習(xí)算法的預(yù)測(cè)。
堆疊的好處是它可以利用一系列性能良好的模型在分類或回歸任務(wù)上的能力,并可能做出比集成中任何單個(gè)模型性能更好的預(yù)測(cè)。大家注意我說的是可能,不是絕對(duì)。

下圖是融合模型的算法流程圖,我們看到子模型(base model)是讀取所有訓(xùn)練數(shù)據(jù)training data,而不是每個(gè)子模型只讀取訓(xùn)練數(shù)據(jù)的一部分。因此前期可以多加入子模型進(jìn)行觀察。

最終訓(xùn)練的融合模型就像一個(gè)真正模型,具有預(yù)測(cè)能力,分類能力,回歸能力。

之前發(fā)布過文章《模型競(jìng)賽大殺器-融合模型(stacking)》介紹融合模型stacking,具體細(xì)節(jié)大家可以去看看。
1.融合模型stacking難以應(yīng)用于商業(yè)模型
因?yàn)槿诤夏P蛃tacking堆疊集成的計(jì)算時(shí)間比單個(gè)機(jī)器學(xué)習(xí)模型要長(zhǎng)得多。商業(yè)公司模型要考慮算法復(fù)雜度,時(shí)間成本和可解釋性,這些都是融合模型stacking的痛點(diǎn)。之前kaggle模型競(jìng)賽有位國(guó)外選手用融合模型stacking奪冠,但主辦方資助公司并未采納,就是因?yàn)槿诤夏P偷淖幽P吞啵浅:臅r(shí),難以應(yīng)用于實(shí)際業(yè)務(wù)。
2.融合模型stacking在學(xué)術(shù)界論文大受歡迎
融合模型stacking的缺點(diǎn)也可以成為優(yōu)點(diǎn),那就是用于學(xué)術(shù)界,特別是論文發(fā)布用。我們接觸過大量論文咨詢,學(xué)術(shù)界的很多同仁認(rèn)為模型越復(fù)雜,價(jià)值越高。他們眼中深度學(xué)習(xí)模型段位就是高于機(jī)器學(xué)習(xí)和統(tǒng)計(jì)模型。這都是誤區(qū),模型算法選擇要與實(shí)際結(jié)合,看場(chǎng)景和具體數(shù)據(jù)集,沒有完全準(zhǔn)確的通用套路。學(xué)術(shù)界同仁很多沒有商業(yè)模型從業(yè)經(jīng)驗(yàn),這是可以理解的。因此我看多過大量融合模型相關(guān)論文。融合模型stacking可以由大量子模型組成,存在諸多組合情況,也能創(chuàng)造大量論文創(chuàng)新點(diǎn)。

3.scikit-learn和mlxtend庫(kù)
scikit-learn和mlxtend庫(kù)提供了 Python 中堆疊集成的標(biāo)準(zhǔn)實(shí)現(xiàn)。scikit-learn和mlxtend庫(kù)各有優(yōu)劣。scikit-learn庫(kù)優(yōu)點(diǎn)是可以用邏輯回歸作為元模型(第二層模型)。mlxtend庫(kù)在運(yùn)行stacking融合模型時(shí)速度更快,但運(yùn)用邏輯回歸,支持向量機(jī)外的模型作為元模型會(huì)報(bào)錯(cuò)。
4.融合模型stacking實(shí)驗(yàn)時(shí)間成本高
很多子模型有著不同數(shù)據(jù)預(yù)處理方法,例如支持向量機(jī),神經(jīng)網(wǎng)絡(luò)需要對(duì)數(shù)據(jù)的缺失值填充,數(shù)據(jù)平滑處理,但集成學(xué)習(xí)算法不需要。集成學(xué)習(xí)直接用原始數(shù)據(jù)可能得到更好效果。
子模型不同數(shù)據(jù)預(yù)測(cè)邏輯造成融合模型實(shí)驗(yàn)多樣性和次數(shù)增加,從而增加了時(shí)間成本。

5.融合模型性能并非一定能高于子模型
互聯(lián)網(wǎng)上很多關(guān)于融合模型介紹會(huì)傳遞一個(gè)誤區(qū),那就是融合模型性能一定高于單一模型。我們建模后,應(yīng)該用融合模型提升性能。但實(shí)時(shí)并非如此,我們?cè)诖罅繉?shí)驗(yàn)中發(fā)現(xiàn)很多時(shí)候融合模型難以提升,性能反而不如子模型,而且還消耗大量時(shí)間實(shí)驗(yàn)。
例如在對(duì)乳腺癌數(shù)據(jù)集實(shí)驗(yàn)中,我們發(fā)現(xiàn)融合模型auc為?0.9820,反而不如上述子模型。

但我們加入KNN,lightgbm子模型后,融合模型性能有的大幅提升,并且超越所有子模型。

我們看到大量論文中描述融合模型性能優(yōu)于子模型,那是作者花了大量時(shí)間實(shí)驗(yàn),測(cè)試出一組固定子模型搭配,得到融合模型性能提升的結(jié)論。你看的的子模型組合不是偶然,而是大量時(shí)間實(shí)驗(yàn)后精心篩選的結(jié)果。
6.融合模型性能提升具體指標(biāo)
我們?cè)诖罅繉?shí)驗(yàn)中,發(fā)現(xiàn)融合模型提升準(zhǔn)確率accuracy和f1分?jǐn)?shù)的概率高于AUC。你用一組子模型融合后可以提升某個(gè)指標(biāo),但不保證能提升所有指標(biāo)。
7.融合模型提升技巧-cv參數(shù)運(yùn)用
Stratified英文意思是分層的,stratifiedkfold翻譯成中文就是分層K折交叉驗(yàn)證。當(dāng)數(shù)據(jù)集目標(biāo)變量是非平衡數(shù)據(jù)時(shí),cross validation交叉驗(yàn)證在劃分?jǐn)?shù)據(jù)時(shí)會(huì)遇到不夠隨機(jī)情況,例如好客戶劃分比例高,壞客戶劃分比例少,甚至一個(gè)都沒分到。
stratifiedkfold有利于非平衡數(shù)據(jù)處理。如果選擇Stratified K折交叉驗(yàn)證,那每次訓(xùn)練時(shí)交叉驗(yàn)證會(huì)保證原始標(biāo)簽中的類別比例,訓(xùn)練標(biāo)簽的類別比例,驗(yàn)證標(biāo)簽的類別比例一致。
下圖是stratifiedkfold算法流程圖,我們可見class目標(biāo)變量有三個(gè)分類,不同分類都有均勻的交叉驗(yàn)證抽樣。

我們?cè)谡{(diào)用cross_val_score函數(shù)時(shí),記得輸入cv參數(shù),一般選擇5或10。輸入任意整數(shù),表示在Stratified K折驗(yàn)證中的折數(shù)。因此cv參數(shù)非常智能化,可以幫我們自動(dòng)解決目標(biāo)變量非平衡數(shù)據(jù)處理難題。數(shù)據(jù)集不大時(shí),CV10模型性能可能好于CV5。
8.融合模型提升技巧-元模型meta_classifier選擇
對(duì)于大多數(shù)學(xué)員,我推薦邏輯回歸作為元模型meta_classifier。在部分?jǐn)?shù)據(jù)集實(shí)驗(yàn)中,其他算法為元模型效果不如邏輯回歸好。在以乳腺癌數(shù)據(jù)集為案例,我用邏輯回歸為元模型得到融合模型為auc 0.9959,用支持向量機(jī)為元模型得到融合模型AUC為0.982.

和一些朋友交流中,也發(fā)現(xiàn)例外,他們數(shù)據(jù)集有時(shí)用集成樹算法作為元模型獲得更好融合模型性能。融合模型參數(shù)太多,一切以自己實(shí)驗(yàn)結(jié)果為準(zhǔn)。
9.融合模型提升技巧-子模型數(shù)量恰到好處
我們?cè)趯?shí)驗(yàn)中發(fā)現(xiàn)融合模型stacking的子模型并非越多越好,或越少越好,恰到好處才最好。
我們用了KNN,隨機(jī)森林等9個(gè)子模型來搭建融合模型,AUC為0.9953,

我們精簡(jiǎn)子模型數(shù)量后,用了6個(gè)子模型搭建融合模型,AUC為0.9957,遠(yuǎn)高于9個(gè)子模型大家的融合模型AUC。這說明融合模型的子模型不是越多越好。

10.融合模型提升技巧-刪除最弱子模型,融合模型可以提升
我們?cè)趯?shí)驗(yàn)融合模型時(shí),可以先盡可能增加子模型數(shù)量,然后觀察哪些子模型性能較弱,刪除明顯拖后腿的子模型,融合模型可以提升。如下圖決策樹子模型AUC為0.91,高斯貝葉斯AUC為0.98,明顯低于其他子模型性能,刪除這兩個(gè)子模型后,融合模型AUC從0.9953提升到0.9957。我們?cè)谥T多實(shí)驗(yàn)中,發(fā)現(xiàn)決策樹和高斯貝葉斯模型性能太差,當(dāng)然這可能和我們實(shí)驗(yàn)樣本有關(guān)。不排除在某些數(shù)據(jù)集上,這兩個(gè)算法有良好表現(xiàn)。


11.融合模型提升技巧-預(yù)測(cè)的類概率用于元模型訓(xùn)練
元分類器可以在預(yù)測(cè)的類標(biāo)簽上訓(xùn)練,也可以在預(yù)測(cè)的類概率訓(xùn)練。我們用level1模型預(yù)測(cè)的類概率到level2元模型里,可以得到更好融合模型性能。如果用預(yù)測(cè)的類標(biāo)簽效果,融合模型效果很差。

這邏輯很簡(jiǎn)單,大家思考一下,類標(biāo)簽結(jié)果很少,如果是二分類模型,類標(biāo)簽只有0和1;如果我們選擇概率預(yù)測(cè),結(jié)果是從0-1的小數(shù)。因此類概率得到多樣性可以很好讓模型學(xué)習(xí),提升模型性能。
大家只要把設(shè)置use_probas=True,就可以設(shè)置類概率用于元模型訓(xùn)練。
12.融合模型提升技巧-多樣性實(shí)驗(yàn)
某些理論稱子模型之間的差別越大、彼此之間就越獨(dú)立,融合模型提升空間越大。這理論可以解釋,元模型一般為邏輯回歸,邏輯回歸要求去掉相關(guān)性高的變量。
多個(gè)高相關(guān)性變量有時(shí)候反而拖累模型性能。當(dāng)子模型相關(guān)性越低,邏輯回歸發(fā)揮空間越大。集成樹算法對(duì)變量相關(guān)性要求沒有這么高,可以適當(dāng)放松一些。大家可以實(shí)驗(yàn)一下,如果元模型為集成樹算法,子模型獨(dú)立性要求還是否成立?
上述只是理論,實(shí)際測(cè)試中差異較大,各位學(xué)員以實(shí)際測(cè)試為準(zhǔn),這里只做參考。
我看了菜菜老師視頻,她對(duì)多樣性解釋很細(xì)致,具體如下:
12.1.樣本多樣性:使用相同變量建模,但每次訓(xùn)練時(shí)抽樣出不同的樣本子集進(jìn)行訓(xùn)練。當(dāng)數(shù)據(jù)量較小時(shí),抽樣樣本可能導(dǎo)致模型效果急劇下降。
12.2·變量多樣性:使用相同變量矩陣,但每次訓(xùn)練時(shí)抽樣出不同的特征子集進(jìn)行訓(xùn)練。當(dāng)特征量較小時(shí),抽樣特征可能導(dǎo)致模型效果急劇下降。
我們可以使用pipeline封裝方法獲取數(shù)據(jù)集的部分變量來訓(xùn)練。


12.3·隨機(jī)多樣性/訓(xùn)練多樣性:使用相同的算法,但使用不同的隨機(jī)數(shù)種子random_state((會(huì)導(dǎo)致使用不同的特征、樣本、起點(diǎn))、或使用不同的損失函數(shù)、使用不同的不純度下降量等。
12.4·算法多樣性:增加類型不同的算法,如集成、樹、概率、線性模型相混合。但需要注意的是,模型的效果不能太糟糕,無論是投票還是平均法,如果模型效果太差,可能大幅度降低融合的結(jié)果。
13.融合模型提升技巧-速度提升
融合模型使用交叉驗(yàn)證,速度非常慢。如果遇到小的數(shù)據(jù)集還好;如果遇到大的數(shù)據(jù)集,需要慎重選擇子模型。假設(shè)我們數(shù)據(jù)集非常大,又想節(jié)約時(shí)間,SVM和catboost算法可以去掉,這兩個(gè)子模型非常耗時(shí)。SVM對(duì)大的數(shù)據(jù)集需要很長(zhǎng)時(shí)間訓(xùn)練,catboost是對(duì)稱樹算法,訓(xùn)練數(shù)據(jù)也很耗時(shí)。
數(shù)據(jù)集中噪音變量或意義不大變量可以刪除,這樣可以減少數(shù)據(jù)集維度,提升模型訓(xùn)練時(shí)間。
Python讀取Excel表格數(shù)據(jù)速度要慢于csv數(shù)據(jù),我們盡量調(diào)用pandas的read_csv()函數(shù)讀取數(shù)據(jù),這樣可以節(jié)省大量時(shí)間。如果數(shù)據(jù)集特別大,也可用pickle包保存,讀取時(shí)候速度較快。
總之,變量篩選,算法篩選,csv數(shù)據(jù)讀取這3個(gè)方面都可以提升融合模型訓(xùn)練速度。
14.融合模型提升技巧-數(shù)據(jù)標(biāo)準(zhǔn)化處理
數(shù)據(jù)集方差較大時(shí),我們子模型預(yù)測(cè)能力有很大差異。在醫(yī)療領(lǐng)域,數(shù)據(jù)集方差很小,比如年齡,血常規(guī)檢測(cè),數(shù)值一般從0-100分布。但在金融領(lǐng)域,數(shù)據(jù)方差非常大,比如張三月收入是5000元,比爾蓋茨月收入是5000億。當(dāng)數(shù)據(jù)方差較大時(shí),子模型較多獨(dú)立性較強(qiáng)時(shí),我們需要對(duì)數(shù)據(jù)標(biāo)準(zhǔn)化處理,縮小數(shù)據(jù)方差。如果子模型都是集成樹算法,就不需要數(shù)據(jù)標(biāo)準(zhǔn)化處理。Toby老師一般優(yōu)雅的稱數(shù)據(jù)標(biāo)準(zhǔn)化處理為平滑處理,處理后數(shù)據(jù)更加順滑,不會(huì)大起大落。
Python處理代碼很簡(jiǎn)單,調(diào)用sklearn包的preprocessing.scale()函數(shù)即可
stacking融合模型成功案例
stacking融合模型成功案例1-乳腺癌細(xì)胞數(shù)據(jù)集
乳腺癌細(xì)胞數(shù)據(jù)集有三十多個(gè)變量,用于建立乳腺癌細(xì)胞識(shí)別模型。

威斯康辛乳腺癌數(shù)據(jù)集,Toby老師用knn,Random Forest,CatBoost,neuron network,xgboost,lightgbm六個(gè)子模型大家stacking融合模型,融合模型AUC高于所有子模型。

Toby老師用knn,Random Forest,CatBoost,neuron network,xgboost,lightgbm,svm七個(gè)子模型搭建的融合模型,融合模型的accuracy高于任何子模型。

Toby老師用knn,Random Forest,neuron network,xgboost,svm五個(gè)子模型搭建的融合模型,融合模型f1分?jǐn)?shù)性能高于任何子模型。

乳腺癌十大經(jīng)典機(jī)器學(xué)習(xí)建模代碼和完整融合模型代碼可以點(diǎn)擊下面視頻詳細(xì)了解。

stacking融合模型成功案例2-天池糖尿病數(shù)據(jù)集
天池糖尿病數(shù)據(jù)集用于建立糖尿病風(fēng)險(xiǎn)預(yù)測(cè)模型,有幾個(gè)個(gè)變量,數(shù)據(jù)量5000多。

Toby老師用Random Forest,adaboost,gradientboost 3個(gè)子模型搭建的融合模型,融合模型f1分?jǐn)?shù)性能高于任何子模型。
融合模型f1分?jǐn)?shù)性能提升比AUC容易得多,而且不需要太多子模型。

Toby老師用Random?Forest,adaboost,xgboost?3個(gè)子模型搭建的融合模型,融合模型auc分?jǐn)?shù)性能高于任何子模型。在建模前,Toby老師用中位數(shù)填充缺失數(shù)據(jù),做了一定數(shù)據(jù)預(yù)處理后,才有此效果。

天池糖尿病數(shù)據(jù)集在accuracy準(zhǔn)確率提升方面比較難,Toby老師花了大量時(shí)間實(shí)驗(yàn),先用中位數(shù)填充缺失值,然后用knn,neuron network,xgboost,svm四個(gè)子模型搭建的融合模型,融合模型accuracy分?jǐn)?shù)性能高于任何子模型。
這四個(gè)子模型算法原理差異大,保證了算法多樣性,實(shí)驗(yàn)效果也不錯(cuò)。

下圖是Toby老師對(duì)子模型和融合模型accuracy指標(biāo)的可視化,主要由箱型圖體現(xiàn)。我們看到融合模型accuracy最高。

stacking融合模型成功案例3-lending club數(shù)據(jù)集
lending club是美國(guó)知名金融科技公司,有120多個(gè)變量,數(shù)據(jù)量上百萬,共十年左右數(shù)據(jù)集。屬于金融風(fēng)控領(lǐng)域數(shù)據(jù)集,適用于銀行,消費(fèi)金融公司,助貸公司,金融科技公司。

Toby老師僅用lightgbm,catboost,xgboost三個(gè)子模型搭建融合模型,顯著提升f1分?jǐn)?shù)。

由于lendingclub數(shù)據(jù)集比較大,Toby老師時(shí)間有限。如何用Toby老師傳授經(jīng)驗(yàn)來提升accuracy和AUC就當(dāng)成大家課后作業(yè)來完成。
如果大家對(duì)lending?club機(jī)器學(xué)習(xí)建模感興趣,可以點(diǎn)擊下面視頻詳細(xì)了解。

stacking融合模型成功案例4-聯(lián)想子公司翼龍貸p2p數(shù)據(jù)集
翼龍貸已在全國(guó)一百多個(gè)地級(jí)市設(shè)立運(yùn)營(yíng)中心,覆蓋上千個(gè)區(qū)、縣及近萬個(gè)鄉(xiāng)鎮(zhèn),并將在全國(guó)眾多的一、二線城市建立全國(guó)性的服務(wù)網(wǎng)絡(luò)。通過這一平臺(tái),可以幫助信用良好的且有不同需求的人群解決資金短缺問題,同時(shí)能夠?yàn)橛胸?cái)富增值需求的客戶將手中的富余資金進(jìn)行較高回報(bào)的投資。翼龍貸主要貸款對(duì)象為幫助三農(nóng)家庭、個(gè)體工商戶、小微企業(yè)主。由于金融監(jiān)管要求,P2P必須轉(zhuǎn)型,目前翼龍貸放款已經(jīng)逐步減少。
Toby老師僅用lightgbm,catboost,xgboost三個(gè)子模型搭建融合模型,顯著提升f1分?jǐn)?shù)。

stacking融合模型成功案例5-克羅恩致病基因挖掘模型
克羅恩病,又稱局限性腸炎、局限性回腸炎、節(jié)段性腸炎和肉芽腫性腸炎,是一種原因不明的腸道炎癥性疾病,在胃腸道的任何部位均可發(fā)生,但多發(fā)于末端回腸和右半結(jié)腸。和慢性非特異性潰瘍性結(jié)腸炎兩者統(tǒng)稱為炎癥性腸病(IBD)。臨床表現(xiàn)為腹痛、腹瀉、腸梗阻,伴有發(fā)熱、營(yíng)養(yǎng)障礙等腸外表現(xiàn)。病程多遷延,反復(fù)發(fā)作,不易根治。尚無根治的一般方法,許多病人出現(xiàn)并發(fā)癥時(shí),需進(jìn)行手術(shù)治療。復(fù)發(fā)率與病變范圍、病癥侵襲的強(qiáng)弱、病程的延長(zhǎng)、年齡的增長(zhǎng)等因素有關(guān)。
很多名人都有克羅恩疾病患病史,
1.NBA現(xiàn)役騎士隊(duì)當(dāng)家球員小拉里·南斯是曾經(jīng)的NBA扣籃王老南斯的兒子,繼承父志在球場(chǎng)上馳騁的他就是一名克羅恩病患者。小南斯15歲時(shí)換上克羅恩病,這種病讓小南斯的食欲大減、精神不振,開始變得嗜睡,沒有精力投入到籃球和學(xué)業(yè)中去,同時(shí)直接導(dǎo)致了他身高停止增長(zhǎng),一度讓他產(chǎn)生放棄籃球的念頭。
2.2004年時(shí),時(shí)任美國(guó)波士頓市市長(zhǎng)梅尼諾在觀看棒球比賽時(shí),因?yàn)槌曰ㄉ锥鴮?dǎo)致劇烈腹痛,送醫(yī)就診后也被確認(rèn)患上了克羅恩病。
3.最知名的是二戰(zhàn)時(shí)期的盟軍最高統(tǒng)帥、五星上將,后來的美國(guó)總統(tǒng)艾森豪威爾,在競(jìng)選開始前6個(gè)月,他接受了克羅恩病手術(shù)。

4.被追授為“時(shí)代楷?!钡闹锌圃荷虾K幬镅芯克芯吭骸⒉?dǎo)王逸平生前就長(zhǎng)期遭受克羅恩病的折磨,從1993年確診到2018年因病去世,25年間王逸平帶病堅(jiān)持搞科研,與死神爭(zhēng)奪時(shí)間,身后留下的是一個(gè)中藥現(xiàn)代化的光明圖景。

得了克羅恩病的痛苦,是一般人所無法知道的??肆_恩病的癥狀包括慢性腹瀉、腹痛、體重減輕、食欲不振、發(fā)燒和直腸出血、腸梗阻、關(guān)節(jié)痛等,嚴(yán)重影響生活質(zhì)量?;颊邥?huì)因吃不下飯和腹瀉而導(dǎo)致身體虛弱,會(huì)因關(guān)節(jié)疼痛而無法運(yùn)動(dòng),會(huì)完全改變飲食習(xí)慣。加上自身不能控制的頻繁如廁和排氣,連正常的社會(huì)交往都會(huì)存在障礙。Toby老師以為克羅恩病非常罕見,但隨著數(shù)據(jù)查詢,發(fā)現(xiàn)該病患病率逐年上升,嗶哩嗶哩就有很多自稱克羅恩疾病患者,發(fā)視頻分享他們患病生活。
Toby老師僅用lightgbm,catboost,xgboost三個(gè)子模型搭建融合模型,提升accuracy準(zhǔn)確率。

Toby老師還通過數(shù)據(jù)挖掘,找出克羅恩致病的高?;颍罄m(xù)有時(shí)間再為大家介紹。Toby和中科院教授合作過慢病項(xiàng)目,看著曾經(jīng)罕見病逐年增多,不得不感嘆,大家各自保重,愛惜自己身體,工作恰到好處,不要太拼了。
Toby老師還有更多stacking融合模型成功案例,后續(xù)會(huì)陸續(xù)更新。歡迎大家關(guān)注和收藏課程《python金融風(fēng)控評(píng)分卡模型和數(shù)據(jù)分析微專業(yè)課》,點(diǎn)擊下面視頻詳細(xì)了解。

我們公司提供一對(duì)一機(jī)器學(xué)習(xí)模型定制服務(wù),提供公司正規(guī)發(fā)票。如果你需要建模項(xiàng)目定制服務(wù),可留言聯(lián)系,并點(diǎn)擊下面視頻詳細(xì)了解。

版權(quán)聲明:文章來自公眾號(hào)(python風(fēng)控模型),未經(jīng)許可,不得抄襲。遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。