ApacheCN 機(jī)器學(xué)習(xí)實(shí)戰(zhàn)講義 八、回歸
2018-05-02 07:01 作者:絕不原創(chuàng)的飛龍 | 我要投稿

回歸(Regression) 概述
我們前邊提到的分類的目標(biāo)變量是標(biāo)稱型數(shù)據(jù),而回歸則是對連續(xù)型的數(shù)據(jù)做出處理,回歸的目的是預(yù)測數(shù)值型數(shù)據(jù)的目標(biāo)值。
回歸 場景
回歸的目的是預(yù)測數(shù)值型的目標(biāo)值。最直接的辦法是依據(jù)輸入寫出一個(gè)目標(biāo)值的計(jì)算公式。
假如你想要預(yù)測蘭博基尼跑車的功率大小,可能會這樣計(jì)算:
HorsePower = 0.0015 * annualSalary - 0.99 * hoursListeningToPublicRadio
這就是所謂的 回歸方程(regression equation)
,其中的 0.0015 和 -0.99 稱作 回歸系數(shù)(regression weights)
,求這些回歸系數(shù)的過程就是回歸。一旦有了這些回歸系數(shù),再給定輸入,做預(yù)測就非常容易了。具體的做法是用回歸系數(shù)乘以輸入值,再將結(jié)果全部加在一起,就得到了預(yù)測值。我們這里所說的,回歸系數(shù)是一個(gè)向量,輸入也是向量,這些運(yùn)算也就是求出二者的內(nèi)積。
說到回歸,一般都是指 線性回歸(linear regression)
。線性回歸意味著可以將輸入項(xiàng)分別乘以一些常量,再將結(jié)果加起來得到輸出。
閱讀全文:http://ml.apachecn.org/mlia/regress/
標(biāo)簽:機(jī)器學(xué)習(xí)ApacheCN