SPSS多層感知器 (MLP)神經(jīng)網(wǎng)絡(luò)預(yù)測全國污染物綜合利用量數(shù)據(jù)
全文鏈接:https://tecdat.cn/?p=33380
原文出處:拓端數(shù)據(jù)部落公眾號
隨著全球經(jīng)濟的不斷發(fā)展,污染物的排放和環(huán)境污染問題日益嚴(yán)重。解決這一問題的關(guān)鍵在于有效地利用污染物資源,以降低對環(huán)境的負(fù)面影響。綜合利用污染物資源不僅有助于減少所需的原材料消耗,還有助于降低環(huán)境排放和廢物處理的成本。因此,探索和預(yù)測全國污染物綜合利用量數(shù)據(jù),對于制定相關(guān)政策和促進可持續(xù)發(fā)展至關(guān)重要。
傳統(tǒng)的污染物綜合利用量數(shù)據(jù)預(yù)測方法主要基于統(tǒng)計模型,但其在處理非線性復(fù)雜關(guān)系時表現(xiàn)出局限性。近年來,神經(jīng)網(wǎng)絡(luò)模型作為一種強大的數(shù)據(jù)建模工具,被廣泛應(yīng)用于各個領(lǐng)域的預(yù)測和決策支持任務(wù)。在本研究中,我們將利用SPSS工具基于多層感知器(MLP)神經(jīng)網(wǎng)絡(luò)來預(yù)測全國污染物綜合利用量數(shù)據(jù)。
本研究的目標(biāo)是通過構(gòu)建一個可靠的預(yù)測模型,幫助客戶分析并預(yù)測未來全國范圍內(nèi)的污染物綜合利用量。首先,我們將收集并整理全國各地的污染物綜合利用量數(shù)據(jù),并進行預(yù)處理以消除異常值和缺失數(shù)據(jù)。接下來,我們將使用SPSS工具中的MLP神經(jīng)網(wǎng)絡(luò)算法,通過對歷史數(shù)據(jù)的學(xué)習(xí)和訓(xùn)練,建立一個能夠準(zhǔn)確預(yù)測未來污染物綜合利用量的模型。
多層感知器?(MLP)
在多層感知器(MLP)對話框中,你可以選擇你想包含在模型中的變量。用神經(jīng)網(wǎng)絡(luò)技術(shù)探索數(shù)據(jù)的結(jié)果可以用多種圖形格式表示。這個簡單的條形圖是多種選擇中的一種。
所示的多層感知器,數(shù)據(jù)前饋式通過輸入層、隱藏層傳遞到輸出層。
■?選項“結(jié)構(gòu)”用來設(shè)置神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),您可以設(shè)定:??
–?是否使用自動選擇結(jié)構(gòu)–?神經(jīng)網(wǎng)絡(luò)的隱藏層個數(shù)?
–?隱藏層單元之間的激活函數(shù)(雙曲函數(shù)或者S型函數(shù))–?輸出層單元之間的激活函數(shù)(標(biāo)識,雙曲,?S型,?SoftMax函數(shù))
MLP通過多層感知器來擬合神經(jīng)網(wǎng)絡(luò)。多層感知器是一個前饋式有監(jiān)督的結(jié)構(gòu)。它可以包含多個隱藏層。一個或者多個因變量,這些因變量可以是連續(xù)型、分類型、或者兩者的結(jié)合。如果因變量是連續(xù)型,神經(jīng)網(wǎng)絡(luò)預(yù)測的連續(xù)值是輸入數(shù)據(jù)的某個連續(xù)函數(shù)。如果因變量是分類型,神經(jīng)網(wǎng)絡(luò)會根據(jù)輸入數(shù)據(jù),將記錄劃分為最適合的類別。
確定被解釋變量和解釋變量
被解釋變量:污染物綜合利用量(Y, Utility)
解釋變量:
(1)???? 目標(biāo)變量:污染物綜合產(chǎn)生量(X1, Generate),作為污染物綜合利用量的主要來源,污染物綜合產(chǎn)生量(X1)的預(yù)測方向主要為與污染物綜合利用量(Y)呈正相關(guān)關(guān)系,即污染物綜合產(chǎn)生量越大,污染物綜合利用量也越大。
(2)???? 控制變量:
國內(nèi)生產(chǎn)總值(X3,GDP)(選取第二產(chǎn)業(yè)的國內(nèi)生產(chǎn)總值),作為污染物綜合利用量的主要控制變量,國內(nèi)生產(chǎn)總值(X3)的預(yù)測方向主要為與污染物綜合利用量(Y)呈正相關(guān)關(guān)系,即國內(nèi)生產(chǎn)總值越大,污染物綜合利用量也越大。
綠地面積(X2, Green),作為污染物綜合利用量的主要去向,綠地面積(X2)的預(yù)測方向主要為與污染物綜合利用量(Y)呈正相關(guān)關(guān)系,即綠地面積越大,污染物綜合利用量也越大。
設(shè)置模型參數(shù)
分別設(shè)置因變量和自變量
確定訓(xùn)練集和測試集的比列
用神經(jīng)網(wǎng)絡(luò)技術(shù)探索數(shù)據(jù)的結(jié)果可以用多種圖形格式表示。
得到模型的結(jié)果
首先得到是模型的訓(xùn)練誤差。誤差在0.04左右說明模型擬合較好,相對誤差在0.01左右。
Network InformationInput LayerFactors1Numbers2Generate(X1)3Green(X2)4GDP(X3)?Number of Unitsa310Hidden Layer(s)?Number of Hidden Layers1Number of Units in Hidden Layer 1a13Activation FunctionHyperbolic tangentOutput LayerDependent Variables1Utilize(Y)Number of Units1Rescaling Method for Scale DependentsStandardizedActivation FunctionIdentityError FunctionSum of Squaresa. Excluding the bias unit
然后是神經(jīng)網(wǎng)絡(luò)的特征信息,該模型一共有1個隱藏層 13個神經(jīng)元?
然后得到神經(jīng)網(wǎng)絡(luò)的預(yù)測值
和預(yù)測的殘差值
可以看到預(yù)測的殘差均勻分布在0線周圍。說明模型擬合較好。
然后輸出模型的重要變量。
?基于神經(jīng)網(wǎng)絡(luò)的屬性重要性評價是以神經(jīng)網(wǎng)絡(luò)為模型來衡量模型中輸入變量對模型輸出的影響程度。它一方面可以神經(jīng)網(wǎng)絡(luò)為工具,按照重要性對屬性排序;另一方面還可增加神經(jīng)網(wǎng)絡(luò)的解釋性、減少網(wǎng)絡(luò)的復(fù)雜度、簡化網(wǎng)絡(luò)的結(jié)構(gòu)、提高網(wǎng)絡(luò)的泛化能力。從結(jié)果中可以看到number是最重要的變量們其次是污染物綜合產(chǎn)生量 然后是綠地面積 然后是GDP,最后是year。
自變量的重要性?重要性標(biāo)準(zhǔn)化的重要性Numbers.327100.0%Generate(X1).19559.5%Green(X2).23371.2%GDP(X3).20662.9%Year.03911.8%
代碼:
*Multilayer Perceptron Network. MLP UtilizeY (MLEVEL=S) BY Numbers GenerateX1 GreenX2 GDPX3?? /PARTITION? VARIABLE=Year?? /ARCHITECTURE?? AUTOMATIC=YES (MINUNITS=1 MAXUNITS=50)?? /CRITERIA TRAINING=BATCH OPTIMIZATION=SCALEDCONJUGATE LAMBDAINITIAL=0.0000005 SIGMAINITIAL=0.00005 INTERVALCENTER=0 INTERVALOFFSET??? =0.5 MEMSIZE=1000?? /PRINT CPS NETWORKINFO SUMMARY CLASSIFICATION IMPORTANCE?? /PL
最后我們得到了以下結(jié)果:
?
?最受歡迎的見解
1.R語言實現(xiàn)CNN(卷積神經(jīng)網(wǎng)絡(luò))模型進行回歸
2.r語言實現(xiàn)擬合神經(jīng)網(wǎng)絡(luò)預(yù)測和結(jié)果可視化
3.python用遺傳算法-神經(jīng)網(wǎng)絡(luò)-模糊邏輯控制算法對樂透分析
4.R語言結(jié)合新冠疫情COVID-19股票價格預(yù)測:ARIMA,KNN和神經(jīng)網(wǎng)絡(luò)時間序列分析
5.Python TensorFlow循環(huán)神經(jīng)網(wǎng)絡(luò)RNN-LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測股票市場價格時間序列和MSE評估準(zhǔn)確性
6.Matlab用深度學(xué)習(xí)長短期記憶(LSTM)神經(jīng)網(wǎng)絡(luò)對文本數(shù)據(jù)進行分類
7.用于NLP的seq2seq模型實例用Keras實現(xiàn)神經(jīng)機器翻譯
8.R語言用FNN-LSTM假近鄰長短期記憶人工神經(jīng)網(wǎng)絡(luò)模型進行時間序列深度學(xué)習(xí)預(yù)測
9.Python用RNN循環(huán)神經(jīng)網(wǎng)絡(luò):LSTM長期記憶、GRU門循環(huán)單元、回歸和ARIMA對COVID-19新冠疫情新增人數(shù)時間序列預(yù)測