人工智能介紹(上)


什么是人工智能
? ??人工智能就是讓機器能像人一樣思考。實現(xiàn)人工智能有兩個階段,第一階段,科學家們嘗試了各種方法來實現(xiàn)人工智能,包括專家系統(tǒng), 決策樹、歸納邏輯、聚類等等,“假智能”。第二階段,人工神經(jīng)網(wǎng)絡(luò)技術(shù)的出現(xiàn),才讓機器擁有了“真智能”。
人工智能、機器學習和深度學習的關(guān)系
????人工智能是最寬泛的概念,機器學習則是實現(xiàn)人工智能的一種方式,也是目前較有效的方式,深度學習是機器學習算法中最熱的一個分支,在近些年取得了顯著的進展,并代替了多數(shù)傳統(tǒng)機器學習算法。
人工智能的學習方法
????構(gòu)成一個模型的三要素:
????????模型假設(shè)
????????評價函數(shù)(損失/優(yōu)化目標)
????????優(yōu)化算法

機器學習
????機器學習是人工智能的一個分支,他是實現(xiàn)人工智能的核心技術(shù),即以機器學習為手段解決人工智能中的問題。
????機器學習是通過一些讓計算機可以自動“學習”的算法并從數(shù)據(jù)中分析獲得規(guī)律,然后利用規(guī)律對新樣本進行預測。
????機器學習分為有監(jiān)督學習、無監(jiān)督學習、半監(jiān)督學習和強化學習。
????有監(jiān)督學習指的是事先需要準備好輸入與正確輸出(區(qū)分方法)相配套的訓練數(shù)據(jù),讓計算機進行學習,以便當它被輸入某個數(shù)據(jù)時能夠得到正確的輸出(區(qū)分方法)。典型應用有聚類和針對連續(xù)數(shù)據(jù)預測,聚類常見算法是k-means,預測常見算法有線性回歸、Grading Boosting、AdaBoost和神經(jīng)網(wǎng)絡(luò)。
????無監(jiān)督學習的目的是讓計算機自己去學習怎樣做一些事情,所有數(shù)據(jù)只有特征而沒有標記。無監(jiān)督學習被應用與僅提供輸入用數(shù)據(jù)、需要計算機自己找出數(shù)據(jù)內(nèi)在結(jié)構(gòu)的場合。其目的是讓計算機自己從數(shù)據(jù)中抽取其中所包含的模式及規(guī)則。
????監(jiān)督學習和無監(jiān)督學習的中間地帶是半監(jiān)督學習,其訓練數(shù)據(jù)一部分有標記,另一部分沒有標記,而沒有標記數(shù)據(jù)的數(shù)量常常極大于有標記數(shù)據(jù)的數(shù)量,這是因為數(shù)據(jù)的分布必然不是完全隨機的,通過結(jié)合有標記的數(shù)據(jù)的局部特征,以及大量沒標記數(shù)據(jù)的整體分布,可以得到比較好的分類結(jié)果。
????強化學習是解決計算機從感知到?jīng)Q策控制的問題,從而實現(xiàn)通用人工智能,它是以目標為導向的,從白紙一張的狀態(tài)開始,經(jīng)由多個步驟來實現(xiàn)某一維度上的目標最大化。最簡單的理解是在訓練過程中不斷去嘗試,錯誤就懲罰,正確就獎勵,由此訓練得到的模型在各個狀態(tài)環(huán)境都最好。強化學習雖然沒有標記,但有一個延遲獎勵和訓練相關(guān),通過學習過程中的激勵函數(shù)獲得某種從狀態(tài)到行動的映射。強化學習強調(diào)如何基于環(huán)境而行動,以取得最大化的預期利益。強化學習一般在游戲、下棋等需要連續(xù)決策的領(lǐng)域。
????標簽是我們要預測的真實事物:y線性回歸中的y變量
????特征是指用于描述數(shù)據(jù)的輸入變量:xi線性回歸中的[x1,x2,x3,...,xn]變量
????樣本是指數(shù)據(jù)的特定實例:x
????有標簽樣本具有{特征,標簽}:{x,y}用于訓練模型
????無標簽樣本具有{特征,?}:{x,?}用于對新數(shù)據(jù)做出預測
????模型可將樣本映射到預測標簽:y'由模型的內(nèi)部參數(shù)定義,這些內(nèi)部參數(shù)值是通過學習得到的
????訓練模型表示通過有標簽樣本來學習(確定)所有權(quán)重和偏差的理想值
????在監(jiān)督式學習中,機器學習算法通過以下方式構(gòu)建模型以使損失趨向于零:檢查多個樣本并嘗試找出可最大限度地減少損失的模型。這一過程稱為經(jīng)驗風險最小化。
????損失是一個數(shù)值,表示對于單個樣本而言模型預測的準確程度。
????訓練模型的目標是從所有樣本中找到一組平均損失“較小”的權(quán)重和偏差
????L1損失:基于模型預測的值與標簽的實際值之差的絕對值
????平方損失:一種常見的損失函數(shù),又稱L2損失
????均方誤差(MSE)指的是每個樣本的平均平方損失
????

????機器學習系統(tǒng)可以不斷迭代,直到總體損失不在變化或至少變化及其緩慢為止。?此時我們可以說改模型已經(jīng)收斂
????該線性回歸問題產(chǎn)生的損失與權(quán)重圖為凸型,凸型問題只有一個最低點;即只存在一個斜率正好為零的位置這個最小值函數(shù)收斂處。

????梯度:一個矢量表示某一函數(shù)在該點處的方向?qū)?shù)沿著該方向取得最大值,即函數(shù)在該點處沿著該方向的最大值,即函數(shù)在該點處沿該方向變化最快,變化率最大
????通過梯度乘以一個稱為學習速率(步長)的標量以確定下一個點的位置。
????超參數(shù)是編程人員在機器學習算法中用于調(diào)整的旋鈕。在機器學習中,超參數(shù)是在開始學習過程之前設(shè)置值的參數(shù),選擇一組好的超參數(shù)可以提高學習的性能和效果。
模型訓練迭代方法:
? ? 首先對權(quán)重w和偏差b進行初始猜測,然后反復調(diào)整這些猜測,直到獲得損失可能最低的權(quán)重和偏差為止。


深度學習
????深度學習(deep learning)是機器學習的分支,是一種試圖使用包含復雜結(jié)構(gòu)或由多重非線性變換構(gòu)成的多個處理層對數(shù)據(jù)進行高層抽象的算法。
????深度學習是機器學習中一種基于對數(shù)據(jù)進行表征學習的算法。觀測值(例如一幅圖像) 可以使用多種方式來表示,如每個像素強度值的向量,或者更抽象地表示成一系列邊、 特定形狀的區(qū)域等。而使用某些特定的表示方法更容易從實例中學習任務(例如,人臉識別或面部表情識別)。深度學習的好處是用非監(jiān)督式或半監(jiān)督式的特征學習和分層特 征提取高效算法來替代手工獲取特征。
????至今已有數(shù)種深度學習框架,如深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和深度置信網(wǎng)絡(luò)和遞歸神 經(jīng)網(wǎng)絡(luò)已被應用在計算機視覺、語音識別、自然語言處理、音頻識別與生物信息學等領(lǐng)域并獲取了極好的效果。

本文源自O(shè)PEN AILAB人工智能介紹課程部分內(nèi)容的整理筆記