北大公開(kāi)課-人工智能基礎(chǔ) 59 機(jī)器學(xué)習(xí)的任務(wù)之降維

特征降維是機(jī)器學(xué)習(xí)中的一種技術(shù),它可以將高維數(shù)據(jù)轉(zhuǎn)換為低維數(shù)據(jù),以便更好地進(jìn)行分析和可視化。在機(jī)器學(xué)習(xí)中,特征降維可以幫助我們減少特征數(shù)量,從而提高模型的效率和準(zhǔn)確性。例如,在圖像識(shí)別中,我們可以使用特征降維來(lái)減少圖像中的像素?cái)?shù)量,從而使模型更快地處理圖像數(shù)據(jù)。
常見(jiàn)的特征降維方法包括主成分分析(PCA)、線性判別分析(LDA)和t-SNE等。這些方法可以幫助我們找到最重要的特征,并將其轉(zhuǎn)換為低維空間中的向量。例如,在PCA中,我們可以使用奇異值分解(SVD)來(lái)找到最重要的特征,并將其轉(zhuǎn)換為低維空間中的向量

抓住主要矛盾和主要特征,可視化。



【PCA】
PCA是主成分分析(Principal Component Analysis)的縮寫(xiě),是一種常見(jiàn)的特征降維方法。它可以將高維數(shù)據(jù)轉(zhuǎn)換為低維數(shù)據(jù),以便更好地進(jìn)行分析和可視化。在機(jī)器學(xué)習(xí)中,PCA可以幫助我們減少特征數(shù)量,從而提高模型的效率和準(zhǔn)確性。
PCA的目標(biāo)是找到數(shù)據(jù)中最重要的方向,并將其轉(zhuǎn)換為新的坐標(biāo)系。這些方向被稱為主成分,它們是原始特征的線性組合。通過(guò)選擇最重要的主成分,我們可以將高維數(shù)據(jù)轉(zhuǎn)換為低維數(shù)據(jù),并保留盡可能多的信息。
例如,在圖像識(shí)別中,我們可以使用PCA來(lái)減少圖像中的像素?cái)?shù)量,并將其轉(zhuǎn)換為更少但更重要的特征。這樣可以使模型更快地處理圖像數(shù)據(jù),并提高模型的準(zhǔn)確性。
【LDA】
LDA是線性判別分析(Linear Discriminant Analysis)的縮寫(xiě),是一種監(jiān)督學(xué)習(xí)的降維技術(shù)。與PCA不同,LDA考慮了樣本的類別信息。它的目標(biāo)是將高維數(shù)據(jù)投影到低維空間中,使得同類樣本盡可能接近,不同類樣本盡可能遠(yuǎn)離。這樣可以提高分類器的準(zhǔn)確性。
LDA的核心思想是找到一個(gè)投影方向,使得投影后同類樣本的方差最小,不同類樣本的距離最大。這個(gè)過(guò)程可以通過(guò)求解廣義特征值問(wèn)題來(lái)實(shí)現(xiàn)。
【PCA和LDA的區(qū)別】

【MPCA】
MPCA是多向主元分析(Multilinear principal component analysis)的縮寫(xiě)。它是主成分分析(PCA)到多維的一種擴(kuò)展。PCA是將投影向量投影到向量,而MPCA是將投影張量投影到張量,投影的結(jié)構(gòu)相對(duì)簡(jiǎn)單,另外運(yùn)算在較低維度的空間進(jìn)行,因此處理高維度數(shù)據(jù)時(shí)有低運(yùn)算量的優(yōu)勢(shì)。
MPCA定義一個(gè)多重子空間,此子空間提取了大部分正交多維的輸入變異量,從而達(dá)到特征提取的效果。
【MLDA】






人臉識(shí)別中的降維應(yīng)用

通過(guò)降維來(lái)降低(圖像、人臉這些復(fù)雜、高維數(shù)據(jù))分類的難度
