pytorch 神經(jīng)網(wǎng)絡(luò)做 線性回歸
線性回歸是利用數(shù)理統(tǒng)計(jì)中回歸分析,來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法,運(yùn)用十分廣泛。其表達(dá)形式為y = w'x+e,e為誤差服從均值為0的正態(tài)分布。
回歸分析中,只包括一個(gè)自變量和一個(gè)因變量,且二者的關(guān)系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個(gè)或兩個(gè)以上的自變量,且因變量和自變量之間是線性關(guān)系,則稱為多元線性回歸分析。 摘自百度百科
簡單的說: 線性回歸對于輸入x與輸出y有一個(gè)映射f,y=f(x),而f的形式為aX+b。其中a和b是兩個(gè)可調(diào)的參數(shù),我們訓(xùn)練的時(shí)候就是訓(xùn)練a,b這兩個(gè)參數(shù)。
一些必要的包
下面定義一個(gè)線性函數(shù),這里使用 y=3x+8,這里的3和8就是上面說到的參數(shù)a和b
下面我生成一些隨機(jī)的點(diǎn),來作為我們的訓(xùn)練數(shù)據(jù),并將其可視化

隨機(jī)生成了一些點(diǎn),之后使用pytorch建立一個(gè)線性模型,這就是所說的訓(xùn)練的過程,由于只有一層線性模型,所以我們就直接使用了
其中參數(shù)(1, 1)代表輸入輸出的特征(feature)數(shù)量都是1. Linear 模型的表達(dá)式是 y=w?x+by=w?x+b,其中 w 代表權(quán)重, b代表偏置
然后開始訓(xùn)練
查看參數(shù):
標(biāo)簽: