人工智能“六步走”學(xué)習(xí)路線
1、學(xué)習(xí)并掌握一些數(shù)學(xué)知識(shí)
高等數(shù)學(xué)是基礎(chǔ)中的基礎(chǔ),一切理工科都需要這個(gè)打底,數(shù)據(jù)挖掘、人工智能、模式識(shí)別此類跟數(shù)據(jù)打交道的又尤其需要多元微積分運(yùn)算基礎(chǔ)線性代數(shù)很重要,一般來(lái)說(shuō)線性模型是你最先要考慮的模型,加上很可能要處理多維數(shù)據(jù),你需要用線性代數(shù)來(lái)簡(jiǎn)潔清晰的描述問題,為分析求解奠定基礎(chǔ)概率論、數(shù)理統(tǒng)計(jì)、隨機(jī)過程更是少不了,涉及數(shù)據(jù)的問題,不確定性幾乎是不可避免的,引入隨機(jī)變量順理成章,相關(guān)理論、方法、模型非常豐富。
很多機(jī)器學(xué)習(xí)的算法都是建立在概率論和統(tǒng)計(jì)學(xué)的基礎(chǔ)上的,比如貝葉斯分類器、高斯隱馬爾可夫鏈。
再就是優(yōu)化理論與算法,除非你的問題是像二元一次方程求根那樣有現(xiàn)成的公式,否則你將不得不面對(duì)各種看起來(lái)無(wú)解但是要解的問題,優(yōu)化將是你的GPS為你指路有以上這些知識(shí)打底,就可以開拔了,針對(duì)具體應(yīng)用再補(bǔ)充相關(guān)的知識(shí)與理論,比如說(shuō)一些我覺得有幫助的是數(shù)值計(jì)算、圖論、拓?fù)?,更理論一點(diǎn)的還有實(shí)/復(fù)分析、測(cè)度論,偏工程類一點(diǎn)的還有信號(hào)處理、數(shù)據(jù)結(jié)構(gòu)。
2、掌握經(jīng)典機(jī)器學(xué)習(xí)理論和算法
如果有時(shí)間可以為自己建立一個(gè)機(jī)器學(xué)習(xí)的知識(shí)圖譜,并爭(zhēng)取掌握每一個(gè)經(jīng)典的機(jī)器學(xué)習(xí)理論和算法,我簡(jiǎn)單地總結(jié)如下:
1) 回歸算法:常見的回歸算法包括最小二乘法(OrdinaryLeast square),邏輯回歸(Logistic Regression),逐步式回歸(Stepwise Regression),多元自適應(yīng)回歸樣條(MultivariateAdaptive Regression Splines)以及本地散點(diǎn)平滑估計(jì)(Locally Estimated Scatterplot Smoothing);
2) 基于實(shí)例的算法:常見的算法包括 k-Nearest Neighbor(KNN), 學(xué)習(xí)矢量量化(Learning Vector Quantization, LVQ),以及自組織映射算法(Self-Organizing Map , SOM);
3) 基于正則化方法:常見的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及彈性網(wǎng)絡(luò)(Elastic Net);
4) 決策樹學(xué)習(xí):常見的算法包括:分類及回歸樹(ClassificationAnd Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 隨機(jī)森林(Random Forest), 多元自適應(yīng)回歸樣條(MARS)以及梯度推進(jìn)機(jī)(Gradient Boosting Machine, GBM);
5) 基于貝葉斯方法:常見算法包括:樸素貝葉斯算法,平均單依賴估計(jì)(AveragedOne-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN);
6) 基于核的算法:常見的算法包括支持向量機(jī)(SupportVector Machine, SVM), 徑向基函數(shù)(Radial Basis Function ,RBF), 以及線性判別分析(Linear Discriminate Analysis ,LDA)等;
7) 聚類算法:常見的聚類算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM);
8) 基于關(guān)聯(lián)規(guī)則學(xué)習(xí):常見算法包括 Apriori算法和Eclat算法等;
9) 人工神經(jīng)網(wǎng)絡(luò):重要的人工神經(jīng)網(wǎng)絡(luò)算法包括:感知器神經(jīng)網(wǎng)絡(luò)(PerceptronNeural Network), 反向傳遞(Back Propagation), Hopfield網(wǎng)絡(luò),自組織映射(Self-OrganizingMap, SOM)。學(xué)習(xí)矢量量化(Learning Vector Quantization, LVQ);
10) 深度學(xué)習(xí):常見的深度學(xué)習(xí)算法包括:受限波爾茲曼機(jī)(RestrictedBoltzmann Machine, RBN), Deep Belief Networks(DBN),卷積網(wǎng)絡(luò)(Convolutional Network), 堆棧式自動(dòng)編碼器(Stacked Auto-encoders);
11) 降低維度的算法:常見的算法包括主成份分析(PrincipleComponent Analysis, PCA),偏最小二乘回歸(Partial Least square Regression,PLS), Sammon映射,多維尺度(Multi-Dimensional Scaling, MDS), 投影追蹤(ProjectionPursuit)等;
12)集成算法:常見的算法包括:Boosting, Bootstrapped Aggregation(Bagging),AdaBoost,堆疊泛化(Stacked Generalization, Blending),梯度推進(jìn)機(jī)(GradientBoosting Machine, GBM),隨機(jī)森林(Random Forest)
3、掌握一種編程工具,比如Python
一方面Python是腳本語(yǔ)言,簡(jiǎn)便,拿個(gè)記事本就能寫,寫完拿控制臺(tái)就能跑;另外,Python非常高效,效率比java、r、matlab高。matlab雖然包也多,但是效率是這四個(gè)里面最低的。
4、了解行業(yè)最新動(dòng)態(tài)和研究成果,比如各大牛的經(jīng)典論文、博客、讀書筆記、微博微信等媒體資訊。
5、買一個(gè)GPU,找一個(gè)開源框架,自己多動(dòng)手訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),多動(dòng)手寫寫代碼,多做一些與人工智能相關(guān)的項(xiàng)目。
6、選擇自己感興趣或者工作相關(guān)的一個(gè)領(lǐng)域深入下去
人工智能有很多方向,比如NLP、語(yǔ)音識(shí)別、計(jì)算機(jī)視覺等等,生命有限,必須得選一個(gè)方向深入的專研下去,這樣才能成為人工智能領(lǐng)域的大牛,有所成就。
————————————————
版權(quán)聲明:本文為CSDN博主「isuccess88」的原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/isuccess88/article/details/54588131
原文來(lái)自于網(wǎng)絡(luò),版權(quán)歸原作者所有,如有侵權(quán),可聯(lián)系刪除。