邏輯回歸的一個python實例
現(xiàn)在我有一份LogisticRegression.csv數(shù)據(jù)集,其部分數(shù)據(jù)如下圖所示:

在邏輯回歸實例操作中,我將‘a(chǎn)dmit’該列看作為標簽列。
接下來的操作步驟就是切割數(shù)據(jù)集,對測試集進行邏輯回歸的預測。以下是實例代碼
輸出的結果如下圖所示:

可以看出標簽0的查準率和查全率都較高,但是標簽1的查全率較低。在F1分數(shù)中,同樣是標簽0的分數(shù)較高,這需要我們在前期的數(shù)據(jù)處理中進一步優(yōu)化,比如說在數(shù)據(jù)分割時分層抽樣,以增加模型的查準率和查全率。
標簽: