了解機器學(xué)習(xí)掌握知識點,讀這一篇就夠了!|新手必讀
機器學(xué)習(xí)應(yīng)用在日常生活的方方面面:比如使用自然語言處理和機器學(xué)習(xí)來預(yù)約、查看日歷和播放音樂的語音助手,到編程廣告等等.機器學(xué)習(xí)的應(yīng)用可以在我們想到之前預(yù)測我們需要什么。
機器學(xué)習(xí)科學(xué)領(lǐng)域的知識比較復(fù)雜,會導(dǎo)致大家在學(xué)習(xí)的時候感覺到難以順利的掌握。今天這篇文章就是機器學(xué)習(xí)的學(xué)習(xí)路徑,將從什么是機器學(xué)習(xí)講到算法及其應(yīng)用的具體例子。
part1/??什么是機器學(xué)習(xí)?

一個計算機程序被稱為從經(jīng)驗E中學(xué)習(xí)關(guān)于某類任務(wù)T和性能度量P的知識,如果它在T任務(wù)中的性能,如P所度量的,隨著經(jīng)驗E的提高而提高。
——Tom M. Mitchell
機器學(xué)習(xí)的行為類似于孩子的成長,隨著孩子的成長,她在執(zhí)行任務(wù)T中的經(jīng)驗E會增加,從而導(dǎo)致更高的績效指標(biāo) (P)。
例如,給一個孩子一個“形狀排序塊”玩具。(現(xiàn)在我們都知道,在這個玩具中,有不同的形狀和形狀孔)。在這種情況下,我們的任務(wù)T是為一個形狀找到一個合適的形狀孔。之后,孩子觀察形狀并嘗試將其放入一個形狀的孔中。
假設(shè)這個玩具有三種形狀:圓形、三角形和方形。在她第一次嘗試尋找形狀孔時,她的表現(xiàn)測量(P)是1/3,這意味著孩子在3個正確的異形孔中找到了1個。
其次,孩子再試一次,這次她已經(jīng)在這個任務(wù)中有了經(jīng)驗。考慮到獲得的經(jīng)驗(E),孩子再次嘗試這項任務(wù),在衡量表現(xiàn)(P)時,結(jié)果是 2/3。重復(fù)這個任務(wù) (T) 100 次后,寶寶就弄清楚哪個形狀進入哪個形狀孔了。
所以她的經(jīng)驗(E)增加了,她的表現(xiàn)(P)也增加了,然后我們注意到隨著這個玩具嘗試次數(shù)的增加,性能也會提高,從而提高準(zhǔn)確性。
這種執(zhí)行類似于機器學(xué)習(xí):
一臺機器所做的是,接受一個任務(wù)(T)執(zhí)行,并測量性能(P)?,F(xiàn)在一臺機器擁有大量數(shù)據(jù),當(dāng)處理這些數(shù)據(jù)時,它的經(jīng)驗 (E) 會隨著時間的推移而增加,從而導(dǎo)致更高的性能指標(biāo) (P)。
所以在處理完所有數(shù)據(jù)之后,機器學(xué)習(xí)模型的準(zhǔn)確度增加了,這意味著模型做出的預(yù)測將非常準(zhǔn)確。
Arthur Samuel對機器學(xué)習(xí)的另一個定義——機器學(xué)習(xí)是計算機科學(xué)的一個子領(lǐng)域,它賦予“計算機無需明確編程即可學(xué)習(xí)的能力”。
通俗的來解釋下這個定義
它指出“無需明確編程即可學(xué)習(xí)”——就是說不會用一組特定的規(guī)則來教計算機,而是為計算機提供足夠的數(shù)據(jù),并給它時間從中學(xué)習(xí),通過犯錯并改進這些錯誤。
例如,我們沒有教孩子如何適應(yīng)形狀,但是通過多次執(zhí)行相同的任務(wù),孩子學(xué)會了自己在玩具中適應(yīng)形狀。
part2?/??為什么我們需要機器學(xué)習(xí)?
例如,有一組貓和狗的圖像。我們現(xiàn)在想把他們分為貓組和狗組。
為此,我們需要找出不同的動物特征,例如:
每只動物有幾只眼睛?
每只動物的眼睛是什么顏色?
每只動物的身高是多少?
每只動物的重量是多少?
每只動物一般吃什么?
在以上每個問題的答案上形成一個向量,然后我們應(yīng)用一組規(guī)則,例如:
如果身高>1英尺,體重>15磅,那么它可能是一只貓。
現(xiàn)在,為每個數(shù)據(jù)點制定這樣一套規(guī)則。然后,放置if,elseif,else語句的決策樹,檢查它是否屬于其中一個類別。
假設(shè)這個實驗的結(jié)果沒有成果,對許多動物進行了錯誤分類,這就給了使用機器學(xué)習(xí)的絕佳機會。因為,機器學(xué)習(xí)所做的是用不同類型的算法處理數(shù)據(jù),并告訴我們哪個特征對確定它是貓還是狗更重要。
因此,我們可以基于兩三個特征對其進行簡化,而不是應(yīng)用許多規(guī)則集,因此它為我們提供了更高的準(zhǔn)確性。以前的方法不夠通用,無法進行預(yù)測。
機器學(xué)習(xí)模型可以幫助我們完成許多任務(wù):
例如:
物體識別
總結(jié)
預(yù)言
分類
聚類
推薦系統(tǒng)
和別的
part3/??什么是機器學(xué)習(xí)模型?
可以這么理解——機器學(xué)習(xí)模型是一個問答系統(tǒng),負(fù)責(zé)處理與機器學(xué)習(xí)相關(guān)的任務(wù),將其視為解決問題時表示數(shù)據(jù)的算法系統(tǒng)。
主要機器學(xué)習(xí)算法
01?回歸(預(yù)測)
可使用回歸算法來預(yù)測連續(xù)值,回歸算法:
線性回歸
多項式回歸
指數(shù)回歸
邏輯回歸
對數(shù)回歸
02?分類
使用分類算法來預(yù)測一組項目的類別。分類算法:
K-最近鄰
決策樹
隨機森林
支持向量機
樸素貝葉斯
03?聚類
使用聚類算法來總結(jié)或構(gòu)建數(shù)據(jù),聚類算法:
K均值
DBSCAN
均值漂移
分層的
04?關(guān)聯(lián)
使用關(guān)聯(lián)算法來關(guān)聯(lián)共同發(fā)生的項目或事件,關(guān)聯(lián)算法:
先驗
05?異常檢測
使用異常檢測來發(fā)現(xiàn)異?;顒雍彤惓0咐缙墼p檢測。
06?序列模式挖掘
使用序列模式挖掘來預(yù)測序列中數(shù)據(jù)示例之間的下一個數(shù)據(jù)事件。
07?降維
使用降維來減少數(shù)據(jù)的大小,以便僅從數(shù)據(jù)集中提取有用的特征。
08?推薦系統(tǒng)
使用推薦算法來構(gòu)建推薦引擎。
例子:
Netflix 推薦系統(tǒng)。
圖書推薦系統(tǒng)。
亞馬遜上的產(chǎn)品推薦系統(tǒng)。
短視頻平臺的推薦系統(tǒng)。
part4??人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)
看到這里可能你會問了,人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)之間的根本區(qū)別是什么?大家說起機器學(xué)習(xí)的時候總是會同時說起人工智能和深度學(xué)習(xí)。
人工智能(AI):
人工智能(AI)是由安德魯·摩爾教授定義的一門科學(xué)和工程,它用計算機的行為方式來模擬人類智能。主要包括:
計算機視覺
語言處理
創(chuàng)造力
總結(jié)
機器學(xué)習(xí)(ML):
正如Tom Mitchell教授所定義的,機器學(xué)習(xí)是指人工智能的一個科學(xué)分支,它側(cè)重于計算機算法的研究,使計算機程序能夠通過經(jīng)驗自動改進。主要包括:
分類
神經(jīng)網(wǎng)絡(luò)
聚類
深度學(xué)習(xí):
深度學(xué)習(xí)是機器學(xué)習(xí)的一個子集,其中分層神經(jīng)網(wǎng)絡(luò)結(jié)合高計算能力和大數(shù)據(jù)集,可以創(chuàng)建強大的機器學(xué)習(xí)模型。

大家更喜歡Python來實現(xiàn)機器學(xué)習(xí)算法?
Python 是一種流行的通用編程語言。使用Python編寫機器學(xué)習(xí)算法,效果很好。Python在數(shù)據(jù)科學(xué)家中如此受歡迎的原因是Python已經(jīng)實現(xiàn)了各種各樣的模塊和庫,讓編程更順暢。
簡單介紹幾個Python庫:
Numpy
一個數(shù)學(xué)庫,用于在Python中處理n維數(shù)組,能夠高效地進行計算。
Scipy
數(shù)值算法和特定領(lǐng)域工具箱的集合,包括信號處理、優(yōu)化、統(tǒng)計等等。Scipy是一個用于科學(xué)和高性能計算的函數(shù)庫。
Matplotlib
流行的繪圖包,提供2D繪圖和3D繪圖。
Scikit-learn
免費的Python編程語言機器學(xué)習(xí)庫。有大部分分類、回歸和聚類算法,并與 Numpy、Scipy等Python數(shù)值庫配合使用。
part5? 機器學(xué)習(xí)算法分為兩類
監(jiān)督學(xué)習(xí)算法
無監(jiān)督學(xué)習(xí)算法
01?監(jiān)督學(xué)習(xí)算法
目標(biāo):預(yù)測類別或值標(biāo)簽。
監(jiān)督學(xué)習(xí)是機器學(xué)習(xí)的一個分支(目前是機器/深度學(xué)習(xí)的主流),從標(biāo)記的訓(xùn)練數(shù)據(jù)中推斷函數(shù)。訓(xùn)練數(shù)據(jù)由一組 *(input, target)* 對組成,其中輸入可以是特征向量,目標(biāo)指示我們希望函數(shù)輸出的內(nèi)容。
根據(jù)*目標(biāo)*的類型,我們可以粗略地將監(jiān)督學(xué)習(xí)分為兩類:分類和回歸。
分類涉及分類目標(biāo),示例范圍從一些簡單的案例(例如圖像分類)到一些高級主題(例如機器翻譯和圖像標(biāo)題)。
回歸涉及連續(xù)的目標(biāo),它的應(yīng)用包括股票預(yù)測、圖像屏蔽等——都屬于這一類。

舉例說明監(jiān)督學(xué)習(xí)
例如,我們給一個孩子100個毛絨動物,其中每種有10個動物,如10只獅子、10只猴子、10只大象等。接下來,我們教孩子根據(jù)動物的不同特征(特征)識別不同類型的動物。
如果它的顏色是橙色,那么它可能是一只獅子。如果它是一個有鼻子的大動物,那么它可能是一頭大象。我們教孩子如何區(qū)分動物,這可以作為監(jiān)督學(xué)習(xí)的一個例子。現(xiàn)在,當(dāng)我們給孩子不同的動物時,他應(yīng)該能夠?qū)⑺鼈儦w入適當(dāng)?shù)膭游锝M。
通過這個例子發(fā)現(xiàn)孩子的分類中有 8/10 是正確的,這就證明孩子做得很好。
同樣適用于計算機,當(dāng)給計算機提供數(shù)千個數(shù)據(jù)點及其實際標(biāo)記值(標(biāo)記數(shù)據(jù)是將數(shù)據(jù)與其特征值一起分為不同的組),然后讓計算機在訓(xùn)練期間從其不同的特征中學(xué)習(xí)。
訓(xùn)練期結(jié)束后,我們可以使用我們訓(xùn)練好的模型進行預(yù)測,可以說這個例子的預(yù)測是基于標(biāo)記數(shù)據(jù)的。
監(jiān)督學(xué)習(xí)算法示例
線性回歸
邏輯回歸
K-最近鄰
決策樹
隨機森林
支持向量機
02?無監(jiān)督學(xué)習(xí)
目標(biāo):確定數(shù)據(jù)模式/分組。
與監(jiān)督學(xué)習(xí)相反,無監(jiān)督學(xué)習(xí)從未標(biāo)記的數(shù)據(jù)中推斷,是一個描述數(shù)據(jù)中隱藏結(jié)構(gòu)的函數(shù)。
無監(jiān)督學(xué)習(xí)最基本的類型可能是降維方法,如PCA、t-SNE;PCA用于數(shù)據(jù)預(yù)處理;t-SNE通常用于數(shù)據(jù)可視化。
一個更高級的分支是聚類,用來探索數(shù)據(jù)中的隱藏模式,然后進行預(yù)測。包括K均值聚類、高斯混合模型、隱馬爾可夫模型等。
隨著深度學(xué)習(xí)的火熱,無監(jiān)督學(xué)習(xí)越來越受到關(guān)注,因為它可以擺脫手動標(biāo)記數(shù)據(jù)的麻煩。
基于深度學(xué)習(xí),來兩種無監(jiān)督學(xué)習(xí):表征學(xué)習(xí)和生成模型。
表征學(xué)習(xí)旨在提煉出對某些下游任務(wù)有用的高級表征特征,而生成模型旨在從一些隱藏參數(shù)中再現(xiàn)輸入數(shù)據(jù)。

來源:Jelleke Vanooteghem 攝,Unsplash
舉例說明無監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)聽起來很有效,在這種類型的算法中,我們沒有標(biāo)記數(shù)據(jù),因此機器必須處理輸入數(shù)據(jù)并嘗試對輸出做出結(jié)論。
還記得我們給了形狀玩具的那個孩子嗎?在這種情況下,他會從自己的錯誤中吸取教訓(xùn),為不同的形狀找到完美的形狀孔。
但問題是,我們不是通過教授適合形狀的方法(用于機器學(xué)習(xí)目的,稱為標(biāo)記數(shù)據(jù))來喂養(yǎng)孩子。然而,孩子會從玩具的不同特性中學(xué)習(xí),并試圖對它們做出結(jié)論。簡而言之,預(yù)測是基于未標(biāo)記的數(shù)據(jù)。
無監(jiān)督學(xué)習(xí)算法示例
降維
密度估計
市場籃子分析
生成對抗網(wǎng)絡(luò) (GAN)
聚類
【對這幾種類型的回歸算法的python示例明天的文章會給大家詳細(xì)講解,關(guān)注學(xué)姐不要錯過重要知識點哦!】

https://pub.towardsai.net/machine-learning-algorithms-for-beginners-with-python-code-examples-ml-19c6afd60daa
作者:Pratik Shukla、Roberto Iriondo、Sherwin Chen
求素質(zhì)三連(轉(zhuǎn)發(fā),點贊,收藏),再不行就點個贊也好!