最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

人工智能(一)機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)

2021-03-17 10:23 作者:李永樂(lè)老師官方  | 我要投稿

前一段時(shí)間我為大家介紹了創(chuàng)造未來(lái)的新技術(shù),談到了5G和人工智能。有個(gè)小朋友就對(duì)我說(shuō):他對(duì)人工智能特別感興趣,小時(shí)候就特別喜歡看《終結(jié)者》《機(jī)械公敵》等電影,但是他始終不明白:

為什么機(jī)器能像人類一樣思考呢?

《機(jī)械公敵》劇照

其實(shí),人工智能早已不是科學(xué)幻想,它是一種已經(jīng)應(yīng)用到我們生活方方面面的技術(shù)。例如,為了應(yīng)對(duì)新冠疫情,許多公司安裝了人臉識(shí)別系統(tǒng),在進(jìn)行肺炎篩查的時(shí)候,需要快速診斷肺部CT影像,在路上開(kāi)車(chē)違章,會(huì)被電子眼抓拍罰款…這里的人臉識(shí)別、CT影像識(shí)別、車(chē)牌識(shí)別,統(tǒng)統(tǒng)用到了人工智能。除此之外,手機(jī)上的各種語(yǔ)音助手軟件、智能音箱、美顏軟件、短視頻平臺(tái)的推薦機(jī)制、電子郵件的防垃圾郵件系統(tǒng),也都是人工智能的應(yīng)用。在未來(lái)我們要實(shí)現(xiàn)的自動(dòng)駕駛、智慧工業(yè)等領(lǐng)域,人工智能也是不可或缺的。如果把人工智能從我們的生活中剝離,人類恐怕要退回三十年前。

今天,我們就來(lái)聊聊人工智能的話題,我希望通過(guò)今天的講解,讓大家了解人工智能和神經(jīng)網(wǎng)絡(luò)的基本工作原理。


1、人工智能的發(fā)展史

人工智能并不是一個(gè)新生的科學(xué)概念。在上古時(shí)代,東西方文明中都出現(xiàn)了人造人的神話。到了二十世紀(jì)30-50年代,由于神經(jīng)生物學(xué)、計(jì)算機(jī)科學(xué)、數(shù)學(xué)等學(xué)科的發(fā)展,人工智能第一次進(jìn)入了科學(xué)家的視野。

1950年,英國(guó)計(jì)算機(jī)科學(xué)家圖靈提出了一個(gè)問(wèn)題:

機(jī)器會(huì)思考嗎?

艾倫·圖靈

圖靈提出了一種測(cè)試機(jī)器智能的標(biāo)準(zhǔn)——圖靈測(cè)試:一個(gè)人C通過(guò)文字等方式與另一個(gè)人A和一個(gè)計(jì)算機(jī)B交流,他能否通過(guò)一連串的問(wèn)題區(qū)分A和B哪個(gè)是人,哪個(gè)是計(jì)算機(jī)?如果人類無(wú)法區(qū)分出A和B,就稱計(jì)算機(jī)通過(guò)了圖靈測(cè)試。

圖靈預(yù)言:到2000年時(shí),計(jì)算機(jī)在經(jīng)過(guò)五分鐘的提問(wèn)之后,就會(huì)騙過(guò)30%的人類,讓人相信對(duì)方是真實(shí)的人類,而非計(jì)算機(jī)。圖靈測(cè)試每年都會(huì)舉辦,在2014年時(shí)終于有一個(gè)人工智能軟件被33%的人類認(rèn)為是一個(gè)13歲的小男孩,通過(guò)了圖靈測(cè)試,這個(gè)軟件叫做尤金·古斯特曼。

尤金·古斯特曼

順便一說(shuō),在計(jì)算機(jī)科學(xué)領(lǐng)域的世界最高獎(jiǎng)叫做圖靈獎(jiǎng),就是以圖靈的名字命名的,它被稱為計(jì)算機(jī)界的諾貝爾獎(jiǎng)。圖靈曾經(jīng)在二戰(zhàn)時(shí)幫助英國(guó)制造計(jì)算機(jī)破譯德軍密碼,許多人認(rèn)為他是盟軍贏得戰(zhàn)爭(zhēng)的法寶之一,這段故事也被拍攝成電影《模仿游戲》。

《模仿游戲》劇照

到了1956年,美國(guó)計(jì)算機(jī)科學(xué)家馬文·明斯基,約翰·麥卡錫以及信息論的奠基者香農(nóng)等人,召開(kāi)了達(dá)特茅斯會(huì)議。在這次會(huì)議上,人們創(chuàng)造出了人工智能這個(gè)詞。從那次會(huì)議開(kāi)始,人工智能也進(jìn)入了大發(fā)展時(shí)代。

達(dá)特茅斯會(huì)議里的眾多大神,你能認(rèn)出幾個(gè)?

后來(lái),明斯基和麥卡錫都因?yàn)樵谌斯ぶ悄茴I(lǐng)域的貢獻(xiàn)獲得了圖靈獎(jiǎng)。而香農(nóng)已經(jīng)不需要圖靈獎(jiǎng)了,他的名字被命名到通信理論方面的諾貝爾獎(jiǎng)上,那就是香農(nóng)獎(jiǎng)。

馬文·明斯基,約翰·麥卡錫和香農(nóng)老了之后的照片

從此之后的幾十年中,由于算法和算力的限制,人工智能幾經(jīng)起落。直到1997年,IBM的人工智能程序“深藍(lán)”戰(zhàn)勝了雄據(jù)國(guó)際象棋霸主12年的卡斯帕羅夫,人工智能迎來(lái)了第三次大發(fā)展。

卡斯帕羅夫與深藍(lán)

從那之后的二十多年,在人工智能算法方面,涌現(xiàn)出許多靈魂人物,例如被譽(yù)為深度學(xué)習(xí)之父的多倫多大學(xué)的計(jì)算機(jī)學(xué)家杰弗里·辛頓,他將反向傳播算法(BP)引入了人工智能領(lǐng)域。紐約大學(xué)計(jì)算機(jī)科學(xué)家楊立昆,他最著名的工作是卷積神經(jīng)網(wǎng)絡(luò)(CNN)。他們倆連同加拿大蒙特利爾大學(xué)計(jì)算機(jī)學(xué)家約書(shū)亞?本吉奧共同獲得了2018年的圖靈獎(jiǎng)。

楊立昆、辛頓、本吉奧

經(jīng)過(guò)眾多科學(xué)家的努力,在特定的領(lǐng)域——例如圖像識(shí)別,人工智能的識(shí)別率已經(jīng)超過(guò)了人類。在語(yǔ)音識(shí)別,智能翻譯等領(lǐng)域,人工智能也有長(zhǎng)足的應(yīng)用?,F(xiàn)在我們上網(wǎng),遇到看不懂的外文,只要按一下翻譯就能變成漢語(yǔ)了。去國(guó)外旅游,也可以雙方用一個(gè)人工智能軟件就能交流了。


2、損失函數(shù)

計(jì)算機(jī)到底是如何做到這一點(diǎn)的呢?說(shuō)到底,這是一個(gè)數(shù)學(xué)問(wèn)題。我們首先來(lái)舉一個(gè)例子:

如何預(yù)測(cè)房屋的成交價(jià)格?

也許我們每個(gè)人都有一種簡(jiǎn)單判斷:大城市比小城市房子值錢(qián),市區(qū)房子比郊區(qū)房子值錢(qián),學(xué)區(qū)房比非學(xué)區(qū)房值錢(qián)…那么,你能用數(shù)學(xué)關(guān)系把它表示出來(lái)么?

比如:在最簡(jiǎn)單的模型下,我們考慮房屋的價(jià)格與面積有關(guān)。我們有了一些房屋的面積,以及它們的成交價(jià)格,把數(shù)據(jù)(xi,yi)畫(huà)在一張圖上,如下:

從圖形上看,我們發(fā)現(xiàn)房?jī)r(jià)和面積接近于正相關(guān),我們希望獲得一個(gè)函數(shù)關(guān)系,使它盡量準(zhǔn)確的表示出房?jī)r(jià)y與面積x的關(guān)系,最簡(jiǎn)單的關(guān)系就是直線y預(yù)=wx+b。其中w是直線的斜率,b是直線的截距。參數(shù)w和b的值不一樣,這條直線就能在平面內(nèi)改變位置。
我們希望每一個(gè)數(shù)據(jù)點(diǎn)都能在直線上,但是實(shí)際上,這往往是做不到的,通過(guò)函數(shù)關(guān)系預(yù)測(cè)的房?jī)r(jià)yi預(yù)和實(shí)際房?jī)r(jià)yi之間總有差別。我們用?損失函數(shù)?描述這個(gè)差別:把每一個(gè)數(shù)據(jù)點(diǎn)真實(shí)的價(jià)格y與輸出的價(jià)格y預(yù)做差,再把這些差別做平方和。

如果損失函數(shù)特別小,就說(shuō)明我們的函數(shù)最貼近實(shí)際的數(shù)據(jù),這就是一個(gè)好的回歸分析。我們的目的就是要尋找合適的參數(shù)w和b,使得誤差函數(shù)J最小。在數(shù)學(xué)上,這叫做最小二乘法,在高斯和勒讓德時(shí)代人們就找到了通過(guò)方程求解參數(shù)w和b的方法。

高斯和勒讓德

不過(guò),如果參數(shù)特別多,高斯的方程算法就不是那么方便了,人們提出了一種逐步趨近的方法——梯度下降算。通過(guò)一次次的逼近,找到小的損失函數(shù)和最優(yōu)的參數(shù)。

具體來(lái)講:損失函數(shù)J其實(shí)是參數(shù)w和b的函數(shù)。我們定性的畫(huà)出損失函數(shù)隨著參數(shù)的變化規(guī)律,它有可能存在一個(gè)最低點(diǎn),我們希望尋找這個(gè)最低點(diǎn)。

大家看:在參數(shù)取適當(dāng)值、損失函數(shù)最小的時(shí)候,損失函數(shù)是不隨著參數(shù)而變化的,或者說(shuō)損失函數(shù)對(duì)這個(gè)參數(shù)的梯度(導(dǎo)數(shù))為零;如果參數(shù)取的不當(dāng),損失函數(shù)會(huì)隨著參數(shù)的變化而變化,梯度(導(dǎo)數(shù))不為零。而且,梯度(導(dǎo)數(shù))越大,往往表示距離損失函數(shù)最低點(diǎn)越遠(yuǎn)。

于是,我們首先預(yù)設(shè)一對(duì)參數(shù)wi和bi,然后使用算法進(jìn)行迭代:

  • 這里的η表示步長(zhǎng),表示一次迭代我們希望多大程度的改變參數(shù)。利用這個(gè)迭代方程,我們可以一步步的尋找最優(yōu)化的參數(shù)就是一步走多遠(yuǎn)。我們一點(diǎn)一點(diǎn)沿著誤差函數(shù)尋找,就能慢慢找到那個(gè)誤差函數(shù)的最小值點(diǎn),此時(shí)的參數(shù)w和b就是最優(yōu)解——它是表示房?jī)r(jià)與面積關(guān)系的最好直線。

當(dāng)然,房屋的價(jià)格并不只取決于面積。我們可能有更多的輸入數(shù)據(jù)。例如每一個(gè)房子都有面積參數(shù)x1、城市參數(shù)x2、房屋年齡x3、位置參數(shù)x4,那么我們可以假設(shè)價(jià)格是這四個(gè)參數(shù)的線性組合:

此時(shí),我們就有了5個(gè)參數(shù)k1…k4和b,我們要做的就是不停的通過(guò)求解梯度來(lái)調(diào)整參數(shù),找到最合適的那一組,使得預(yù)測(cè)的結(jié)果與已知數(shù)據(jù)之間的誤差函數(shù)最小。只是剛才,我們是在二維平面上尋找損失函數(shù)的最小值,這時(shí)我們是在一個(gè)五維空間中尋找損失函數(shù)的最小值。

尋找損失函數(shù)的最小值

輸入數(shù)據(jù)、進(jìn)行計(jì)算、調(diào)整參數(shù),這個(gè)過(guò)程就稱之為機(jī)器學(xué)習(xí)或者訓(xùn)練。假如最后找到或者逼近了最優(yōu)解,訓(xùn)練就結(jié)束了。如果還沒(méi)有找到,就需要調(diào)整參數(shù)和模型。其實(shí),這和人類的學(xué)習(xí)過(guò)程非常相似,皮亞杰關(guān)于認(rèn)知發(fā)展理論中的同化和順應(yīng)過(guò)程,就是這樣的一個(gè)過(guò)程,老話說(shuō)吃一塹長(zhǎng)一智,也是這個(gè)問(wèn)題。只是現(xiàn)在我們用數(shù)學(xué)的方法把它表現(xiàn)出來(lái)了。


3、神經(jīng)網(wǎng)絡(luò)

從本質(zhì)上講,人工智能問(wèn)題就是通過(guò)這種一點(diǎn)點(diǎn)調(diào)整參數(shù)的方法,尋找一個(gè)函數(shù),能夠從輸入的值盡量準(zhǔn)確的獲得輸出值。實(shí)際的機(jī)器學(xué)習(xí)問(wèn)題,要比剛才的例子復(fù)雜的多,比如房?jī)r(jià)不光與面積大小有關(guān),還與距離市中心遠(yuǎn)近、房齡長(zhǎng)短、樓層情況、物業(yè)水平、周邊工廠學(xué)校醫(yī)院情況、匯率、甚至人口結(jié)構(gòu)等等因素相關(guān),而且很有可能不是線性關(guān)系。在圖像識(shí)別問(wèn)題上,一幅圖就有上百萬(wàn)個(gè)像素,也就是上百萬(wàn)個(gè)輸入?yún)?shù)。

為了應(yīng)對(duì)這些復(fù)雜的問(wèn)題,科學(xué)家們?cè)O(shè)計(jì)了神經(jīng)網(wǎng)絡(luò)算法,你在網(wǎng)上搜索人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等關(guān)鍵詞時(shí),可能經(jīng)常會(huì)看到這張圖,這就是一張神經(jīng)網(wǎng)絡(luò)圖,其中每一個(gè)圓圈叫做一個(gè)神經(jīng)元。

單層神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)的開(kāi)創(chuàng)來(lái)源于人類對(duì)生物大腦的認(rèn)識(shí)。人腦中有數(shù)百億個(gè)神經(jīng)元細(xì)胞,每個(gè)神經(jīng)元細(xì)胞前方有有樹(shù)突用于接收信號(hào),當(dāng)樹(shù)突收到刺激時(shí),神經(jīng)元會(huì)判斷這個(gè)刺激大小,如果刺激足夠大,神經(jīng)元就會(huì)決定通過(guò)神經(jīng)遞質(zhì)或者電信號(hào)的方法,通過(guò)突觸將信號(hào)傳給下一級(jí)。

1943年,美國(guó)神經(jīng)科學(xué)家沃爾特·皮茨(WalterPitts)和沃倫·麥卡洛克(Warren SturgisMcCulloch)分析了人類神經(jīng)元的結(jié)構(gòu),他們提出:人腦的神經(jīng)元是一個(gè)多輸入、單輸出系統(tǒng),而且輸出只有兩種:0或者1。如果輸出是0,就表示上一級(jí)神經(jīng)元不向下一級(jí)傳遞信號(hào);如果輸出是1,就表示上一級(jí)神經(jīng)元向下一級(jí)傳遞信號(hào)。用計(jì)算機(jī)可以模擬人類的大腦,這就是所謂的人工神經(jīng)網(wǎng)絡(luò)。

皮茨和麥卡洛克

他們提出了最早的人工神經(jīng)元模型

——M-P模型。

這個(gè)模型的操作流程是:
1、給定輸入?yún)?shù)x1——xn,將它們線性組合起來(lái)獲得函數(shù)值y


2、把函數(shù)值y放進(jìn)一個(gè)非線性的激活函數(shù)中,獲得一個(gè)0到1之間的值f(y)。經(jīng)常使用的激活函數(shù)叫做sigmoid函數(shù),它的表達(dá)式和圖像如下所示。

Sigmoid 函數(shù)

3、獲得的激活值越小,向下級(jí)傳遞信號(hào)的概率越低;激活值越大,向下級(jí)傳遞信號(hào)的概率越大。

通過(guò)這樣一番操作,我們就能把一堆輸入數(shù)字變成0或者1的輸出。只要選擇的參數(shù)合適,我們就能讓計(jì)算機(jī)幫助我們做一些判斷題。比如,我們給計(jì)算機(jī)去一幅圖,這是一幅有25個(gè)像素點(diǎn)的純黑白圖像,我們要讓計(jì)算機(jī)判斷這個(gè)圖像代表的是不是字母X。

計(jì)算機(jī)并不能像我們一樣一眼看出圖像內(nèi)容,它只認(rèn)識(shí)數(shù)字。這張圖有25個(gè)像素點(diǎn),每個(gè)像素點(diǎn)要么是黑色,要么是白色,相當(dāng)于有25個(gè)輸入,每個(gè)輸入端要么是0,要么是1。于是,這張圖片對(duì)計(jì)算機(jī)來(lái)講,就是一個(gè)5*5的數(shù)字矩陣。

如果是灰度圖或者彩色圖片又如何呢?灰度圖片中的每一個(gè)像素點(diǎn)可以用0-255之間的一個(gè)數(shù)字表示,相當(dāng)于一個(gè)8位的二進(jìn)制數(shù)字;如果是彩色圖,每個(gè)像素點(diǎn)需要用RGB三個(gè)顏色的飽和度來(lái)表示,數(shù)據(jù)量再擴(kuò)大三倍……但無(wú)論如何,計(jì)算機(jī)看來(lái),任何一張圖片都只是一組數(shù)字,只是數(shù)字有多有少而已。

計(jì)算機(jī)看到的世界,就如同黑客帝國(guó)電影中的情景

將圖片代表的數(shù)字輸入神經(jīng)網(wǎng)絡(luò)的輸入層,數(shù)據(jù)依次流過(guò)隱層,傳遞到輸出層,輸出值只有兩種可能:0或者1,輸出0表示計(jì)算機(jī)認(rèn)為這不是X,輸出1表示計(jì)算機(jī)認(rèn)為它是X,這就完成了機(jī)器識(shí)別過(guò)程。

在訓(xùn)練時(shí),我們把許多圖片輸入系統(tǒng),并且告訴計(jì)算機(jī)正確的結(jié)論,這樣計(jì)算機(jī)就能求出誤差函數(shù)——這個(gè)誤差函數(shù)與剛才預(yù)測(cè)房?jī)r(jià)的函數(shù)形式不同,但是原理都是類似的:模型越接近實(shí)際,誤差函數(shù)就越小。通過(guò)梯度下降法,計(jì)算機(jī)會(huì)一次次調(diào)整參數(shù),不斷減小誤差函數(shù),最終獲得一組最優(yōu)解,這時(shí),訓(xùn)練就完成了。以后,你給我一副圖片,我都能判斷個(gè)字母是不是X了。

如果只是判斷一張圖是不是X,也許一層神經(jīng)元也就夠了。然而,現(xiàn)實(shí)當(dāng)中我們利用人工智能翻譯文章,需要認(rèn)識(shí)幾千個(gè)文字或者單詞,并理解語(yǔ)法,判斷含義。只有一層神經(jīng)元,沒(méi)法處理現(xiàn)實(shí)世界如此復(fù)雜的問(wèn)題。其實(shí),人腦中的神經(jīng)元有許多層,每一層神經(jīng)元又有多個(gè)神經(jīng)細(xì)胞,于是人工智能也仿照這個(gè)結(jié)構(gòu),做了多層(深度)神經(jīng)網(wǎng)絡(luò)。

單層神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)

多層神經(jīng)網(wǎng)絡(luò)的隱層是多層神經(jīng)元,每一層中又有許多個(gè)神經(jīng)元,相鄰兩層之間的神經(jīng)元兩兩之間都有連接,所以這種神經(jīng)網(wǎng)絡(luò)也稱為全連接網(wǎng)絡(luò),它能處理更加復(fù)雜的問(wèn)題,于是,機(jī)器就能像人一樣,可以思國(guó)思家思社稷,賞花賞月賞秋香了。

不過(guò),全連接網(wǎng)絡(luò)最大的問(wèn)題是復(fù)雜度太高。舉例來(lái)講,如果還是判斷剛才的圖是不是X的問(wèn)題,有25個(gè)輸入?yún)?shù)。假設(shè)隱層有3層,每層有25個(gè)神經(jīng)元,這樣,就有大約2000個(gè)參數(shù)需要優(yōu)化。大家注意,這還是一個(gè)只有25像素的簡(jiǎn)單黑白圖片。實(shí)際上,每一副圖像的像素點(diǎn)成千上萬(wàn),又有RGB三種顏色,在實(shí)際訓(xùn)練時(shí)又需要使用大量圖片進(jìn)行訓(xùn)練,在以前的計(jì)算能力下,幾乎是不可能完成的任務(wù),這也是之前人工智能陷入低谷的原因之一。

后來(lái),辛頓引入了反向傳播算法,這種算法的意思是:在優(yōu)化時(shí),無(wú)需對(duì)所有參數(shù)同時(shí)進(jìn)行優(yōu)化,只要首先考慮最后一層的參數(shù),優(yōu)化過(guò)后再看前一層參數(shù),如此反復(fù)進(jìn)行訓(xùn)練即可。他的工作實(shí)現(xiàn)了圖像讓人工智能進(jìn)入了第三次熱潮。


4、人工智能框架

顯而易見(jiàn),人工智能的算法如此復(fù)雜,程序員不可能每次都從零開(kāi)始編輯,這就好像廚師做菜不能從種菜開(kāi)始,工人蓋房子不能從燒磚開(kāi)始一樣。一些基礎(chǔ)的代碼和邏輯應(yīng)該是已經(jīng)編輯完成,可以直接調(diào)用的,這就是所謂的人工智能框架。

最近幾年,由于人工智能大火,許多公司都開(kāi)發(fā)了自己的人工智能框架,比較流行的是谷歌開(kāi)發(fā)的TensorFlow,和Facebook開(kāi)發(fā)的PyTorch等等。在人工智能時(shí)代開(kāi)發(fā)框架,就好像在移動(dòng)互聯(lián)網(wǎng)領(lǐng)域開(kāi)發(fā)通訊標(biāo)準(zhǔn)一樣,會(huì)具有基礎(chǔ)性、全行業(yè)的戰(zhàn)略優(yōu)勢(shì)。

隨著中國(guó)計(jì)算機(jī)和互聯(lián)網(wǎng)技術(shù)的發(fā)展,對(duì)人工智能的需求量越來(lái)越大。于是,華為也開(kāi)發(fā)了自己的開(kāi)源人工智能框架:MindSpore,它是華為昇騰AI解決方案中的一環(huán)。

它的主要特點(diǎn)有:

01??自動(dòng)并行。通過(guò)一條語(yǔ)句聲明,MindSpore就會(huì)幫你完成分布式并行能力。而現(xiàn)有的框架,大多需要數(shù)據(jù)工程師手動(dòng)寫(xiě)分布式并行的策略。

02??更快的參數(shù)優(yōu)化。在進(jìn)行參數(shù)優(yōu)化時(shí),傳統(tǒng)梯度下降算法是一階優(yōu)化,相當(dāng)于勻速找到目標(biāo)。MindSpore可以實(shí)現(xiàn)二階優(yōu)化,相當(dāng)于加速找到目標(biāo),某些場(chǎng)景下可以比傳統(tǒng)算法訓(xùn)練時(shí)間縮短20%以上。

03??云、邊緣、端全場(chǎng)景協(xié)同。也就是利用MindSpore框架開(kāi)發(fā)的程序,既可以用在云計(jì)算中心,也可以用在手機(jī)、電視等智能終端,也能用在例如自動(dòng)駕駛汽車(chē)等邊緣側(cè)。例如手機(jī)打字的時(shí)候,人工智能可以實(shí)現(xiàn)自動(dòng)糾錯(cuò)和聯(lián)想,自動(dòng)駕駛時(shí),人工智能可以對(duì)信號(hào)進(jìn)行實(shí)時(shí)判斷,這些都無(wú)需每次都回傳云計(jì)算中心。

04??更好的信息安全。MindSpore可以實(shí)現(xiàn)信息脫敏,也就是把加密的信息上傳云端進(jìn)行訓(xùn)練,數(shù)據(jù)和模型都是脫敏的,就算別人拿到了數(shù)據(jù),也不知道數(shù)據(jù)內(nèi)容是什么。就算拿到了模型,也不知道模型怎么用。這在人臉識(shí)別等有安全需求的領(lǐng)域非常有用。

華為也建設(shè)了類似于Github的代碼社區(qū)MindSpore社區(qū)(https://gitee.com/mindspore),并與中國(guó)各地高校聯(lián)合,鼓勵(lì)高校教師和學(xué)生使用MindSpore框架,構(gòu)建自己的人工智能代碼庫(kù)。

全場(chǎng)景AI計(jì)算框架MindSpore,作為AI根技術(shù)之一,是AI技術(shù)皇冠上的明珠。上層應(yīng)用有了開(kāi)發(fā)框架就不難了,隨便一個(gè)學(xué)生都能開(kāi)發(fā)app。從框架開(kāi)源到AI開(kāi)發(fā)平臺(tái)的產(chǎn)業(yè)化升級(jí),意味著華為全棧全場(chǎng)景AI的軟硬件骨干已經(jīng)全部投入業(yè)界實(shí)踐,成為全球AI開(kāi)發(fā)者的能力組成部分。


這一回,我為大家介紹了人工智能的發(fā)展史、梯度下降算法、神經(jīng)網(wǎng)絡(luò)、AI框架等基本概念。下一回,我還想和大家聊聊在人工智能領(lǐng)域重要的應(yīng)用場(chǎng)景——圖像識(shí)別的具體實(shí)現(xiàn),為大家介紹目前非常流行的卷積神經(jīng)網(wǎng)絡(luò),歡迎關(guān)注哦!



李永樂(lè)老師全新科普專欄《李老師品書(shū):從一到無(wú)窮大》已經(jīng)發(fā)布啦!用70期節(jié)目解讀科普經(jīng)典著作。李老師將會(huì)帶著你沿著伽莫夫的足跡,用每天幾分鐘的時(shí)間了解數(shù)學(xué)、物理、生物、和宇宙的奧妙,現(xiàn)在已經(jīng)更新到58期,快快點(diǎn)擊李永樂(lè)老師品書(shū)了解一下!






人工智能(一)機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
化隆| 怀集县| 襄汾县| 宁强县| 偃师市| 黑河市| 贞丰县| 宣化县| 从化市| 鹰潭市| 开原市| 安徽省| 张家川| 米脂县| 平顶山市| 句容市| 金平| 红安县| 册亨县| 利津县| 松潘县| 阜康市| 台湾省| 博湖县| 绥江县| 德阳市| 手机| 文昌市| 峨边| 平泉县| 错那县| 德令哈市| 曲麻莱县| 建瓯市| 吐鲁番市| 岑巩县| 黄梅县| 抚州市| 东台市| 定襄县| 四川省|