【必備知識點(diǎn):多項(xiàng)式回歸】未來發(fā)展的大趨勢人工智能 邏輯回歸算法你開始學(xué)習(xí)了嗎?
一、人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí),三者的區(qū)別和聯(lián)系?
? ?機(jī)器學(xué)習(xí)是一種實(shí)現(xiàn)人工智能的方法,深度學(xué)習(xí)是一種實(shí)現(xiàn)機(jī)器學(xué)習(xí)的技術(shù)。我們就用最簡單的方法——同心圓,可視化地展現(xiàn)出它們?nèi)叩年P(guān)系。


一、多項(xiàng)式回歸是什么?
? ? 多項(xiàng)式回歸,回歸函數(shù)是回歸變量多項(xiàng)式的回歸。多項(xiàng)式回歸模型是線性回歸模型的一種,此時(shí)回歸函數(shù)關(guān)于回歸系數(shù)是線性的。由于任一函數(shù)都可以用多項(xiàng)式逼近,因此多項(xiàng)式回歸有著廣泛應(yīng)用。
?

使用多項(xiàng)式回歸的優(yōu)點(diǎn):
1、廣泛的功能可以適應(yīng)它。
2、多項(xiàng)式基本上適合寬范圍的曲率。
3、多項(xiàng)式提供了依賴變量和自變量之間關(guān)系的最佳近似。
使用多項(xiàng)式回歸的缺點(diǎn)
1、這些對異常值過于敏感。
2、數(shù)據(jù)中存在一個(gè)或兩個(gè)異常值會嚴(yán)重影響非線性分析的結(jié)果。
3、此外,遺憾的是,用于檢測非線性回歸中的異常值的模型驗(yàn)證工具少于線性回歸。
?

二、升維(polynomial regression)
? ? 升維的目的是為了去解決欠擬合的問題的,也就是為了提高模型的準(zhǔn)確率為目的的,因?yàn)楫?dāng)維度不夠時(shí),說白了就是對于預(yù)測結(jié)果考慮的因素少的話,肯定不能準(zhǔn)確的計(jì)算出模型。
舉個(gè)例子,我們看電影電視經(jīng)??吹竭@樣的場景:
女主對男主說:“我不愛你了”,于是男主很傷心,以為女主真的不愛他了,其實(shí)女主得了絕癥,不想連累男主。
?

?
? ? ?多項(xiàng)式回歸不是一個(gè)新的回歸算法,只是特征預(yù)處理,只是做了一個(gè)升維變化,變成更高階,在算法不變的情況下,通過升維,把非線性變?yōu)榫€性。

? ? ?多項(xiàng)式回歸是升維的一種,它可以算是機(jī)器學(xué)習(xí)中的一種算法,不過和歸一化一樣一般算作數(shù)據(jù)預(yù)處理的手段,在sklearn模塊下它處于sklearn.preprocessing模塊下。它的目的就是將已有維度進(jìn)行相乘,包括自己和自己相乘,來組成二階的甚至更高階的維度
?
?

下節(jié)課:代碼實(shí)戰(zhàn)(多項(xiàng)式升維)

對于邏輯回歸多項(xiàng)式回歸·升維,有不懂的可在下方評論區(qū)提問,一起討論起來吧!??!
作者:尚學(xué)堂官方
https://www.bilibili.com/read/cv10003766
出處: bilibili
【必備知識點(diǎn):多項(xiàng)式回歸】未來發(fā)展的大趨勢人工智能 邏輯回歸算法你開始學(xué)習(xí)了嗎?的評論 (共 條)
