最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

5000字純干貨|人工智能筆試題目及答案

2020-09-24 15:05 作者:深藍(lán)學(xué)院  | 我要投稿

面試題目系列又上線了,AI學(xué)員們收藏關(guān)注不迷路~

沒有廢話,直接上硬菜了~嘻嘻

01

問題:深度學(xué)習(xí)和過往的神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法有什么區(qū)別?列舉幾種深度學(xué)習(xí)的loss function ,并說明意義

答案:深度學(xué)習(xí)是一種方法,神經(jīng)網(wǎng)絡(luò)是個模型,深度學(xué)習(xí)方法呢可以有效解決層數(shù)多的神經(jīng)網(wǎng)絡(luò)不好學(xué)習(xí)的問題,為了讓層數(shù)較多的多層神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,能夠起作用并演化出來的一系列的 新的結(jié)構(gòu)和新的方法;

結(jié)構(gòu):一般分為兩大陣營,CNN,RNN,感覺這里欠妥,請指正。

方法:權(quán)重初始化方法(逐層初始化,XAVIER 等),損失函數(shù),防止過擬合方法(Dropout, BN 等)。

這些方面主要都是為了解決傳統(tǒng)的多層神經(jīng)網(wǎng)絡(luò)的一些不足:梯度消失,過擬合等。

分類問題常用的損失函數(shù):

(1)交叉熵?fù)p失函數(shù),也稱作softmax 損失函數(shù),可用于解決多分類問題,通過指數(shù)化將輸出轉(zhuǎn)換成概率的形式;

(2)合頁損失函數(shù),一般情況下,交叉熵?fù)p失函數(shù)的效果優(yōu)于合頁損失函數(shù);

(3)坡道損失函數(shù),對離群點(diǎn)或者噪聲的抗干擾能力強(qiáng),是一種魯棒性的損失函數(shù),對誤差較大的區(qū)域會進(jìn)行截斷;

(4)大間隔損失函數(shù),保證能夠正確分類的同時,還滿足增大類間的差異,提升了特征的分辨能力,防止網(wǎng)絡(luò)發(fā)生過擬合;

(5)中心損失函數(shù),保證能夠正確分類的同時,還滿足減少類內(nèi)的差異,提升了特征的分辨能力;

回歸問題常用的損失函數(shù):

(1)l1 損失函數(shù),衡量的是預(yù)測值與真實值之間的偏差;

(2)l2 損失函數(shù),效果 優(yōu)于l1;

(3)tukey‘s biweight 損失函數(shù),是一種具有魯棒性的損失函數(shù);

其他任務(wù)的損失函數(shù):

KL 散度損失函數(shù),衡量的是樣本標(biāo)記分布與真是標(biāo)記分布的差異,可用于年齡估計等。


02

問題:什么是卷積神經(jīng)網(wǎng)絡(luò)?請說明卷積的意義

答案:分開看就明確了,“卷積” 和 “神經(jīng)網(wǎng)絡(luò)”.

卷積也就是說神經(jīng)網(wǎng)絡(luò)不再是對每個像素的輸入信息做處理了,而是圖片上每一小塊像素區(qū)域進(jìn)行處理, 這種做法加強(qiáng)了圖片信息的連續(xù)性. 使得神經(jīng)網(wǎng)絡(luò)能看到圖形, 而非一個點(diǎn). 這種做法同時也加深了神經(jīng)網(wǎng)絡(luò)對圖片的理解.

具體來說, 卷積神經(jīng)網(wǎng)絡(luò)有一個批量過濾器, 持續(xù)不斷的在圖片上滾動收集圖片里的信息,每一次收集的時候都只是收集一小塊像素區(qū)域, 然后把收集來的信息進(jìn)行整理, 這時候整理出來的信息有了一些實際上的呈現(xiàn), 比如這時的神經(jīng)網(wǎng)絡(luò)能看到一些邊緣的圖片信息, 然后在以同樣的步驟, 用類似的批量過濾器掃過產(chǎn)生的這些邊緣信息, 神經(jīng)網(wǎng)絡(luò)從

這些邊緣信息里面總結(jié)出更高層的信息結(jié)構(gòu),比如說總結(jié)的邊緣能夠畫出眼睛,鼻子等等.

卷積的重要的物理意義是:一個函數(shù)(如:單位響應(yīng))在另一個函數(shù)(如:輸入信號)上的加權(quán)疊加,這就是卷積的意義:加權(quán)疊加,不同的卷積核提供了不同的加權(quán)方式,從而得到魯棒的特征,進(jìn)行參數(shù)共享,大大減少了參數(shù)量,避免過擬合;


03

問題:什么是中文分詞 ?列舉出幾種你所知的分詞方法

答案:中文分詞就是將中文按語義分出詞語來,與英文不同,中文詞語之間沒有空格,需要根據(jù)語義經(jīng)驗等知識來將一組漢字序列進(jìn)行切分出一個個詞語

中文分詞主要分為三種:

(1)機(jī)械分詞法:是一種基于詞典的方法,是將文檔中的字符串與詞典中的詞條一一匹配,如果在詞典中找到了某個字符串,則匹配成功,可以切分,否則不予切分。該方法實現(xiàn)簡單,使用性強(qiáng),但對于詞典的完備性要求很高。

(2)基于語法和規(guī)則的分詞方法:是在分詞的同時進(jìn)行句法和語義分析,通過句法和語義信息來標(biāo)注詞性,以解決分詞歧義的現(xiàn)象。但漢語語法籠統(tǒng),復(fù)雜,所以該種方法的精度不盡人意,目前仍處于試驗階段。

(3)基于統(tǒng)計的分詞法:根據(jù)字符串在語料中出現(xiàn)的統(tǒng)計詞頻來判斷其是否構(gòu)成一個詞。詞是字的組合,相鄰的字同時出現(xiàn)的次數(shù)越多越有可能成為一個詞。該種方法因精度高,效果穩(wěn)定,成為目前最流行的一種方法,常見的分詞模型有HMM, CRF,biLSTM+CRF 等。


04

問題:現(xiàn)在深度學(xué)習(xí)在nlp領(lǐng)域有哪些應(yīng)用?請具體說明

答案:

1.機(jī)器翻譯,or神經(jīng)機(jī)器翻譯(NMT)在翻譯中提供了統(tǒng)計方式之外的另一種方式,同時也更加簡便。

2.知識問答,問答機(jī)器人,可以用深度學(xué)習(xí)模型,從語料中學(xué)習(xí)獲得一些問題的答案。

3.自然語言生成,能夠根據(jù)一些關(guān)鍵信息及其在機(jī)器內(nèi)部的表達(dá)形式,經(jīng)過一個規(guī)劃過程,來自動生成一段高質(zhì)量的自然語言文本。


05

問題:傳統(tǒng)圖像處理提取的的sift特征是什么意思 ?

答案:sift指的是scale invarient feature transform,即尺度不變特征變換。

sift 特征是一種對縮放、旋轉(zhuǎn)、光照變化等不敏感的局部圖像特征,其提取過程是先生成圖像的尺度空間,然后在尺度空間中檢測極值點(diǎn)作為關(guān)鍵點(diǎn),最后利用關(guān)鍵點(diǎn)鄰域的梯度信息生成特征描述符。


06

問題:什么叫過擬合,避免過擬合都有哪些措施?

答案:

過擬合:就是在機(jī)器學(xué)習(xí)中,我么測試模型的時候,提高了在訓(xùn)練數(shù)據(jù)集的表現(xiàn)力時候,但是在訓(xùn)練集上的表現(xiàn)力反而下降了。

解決方案:

1.正則化

2.在訓(xùn)練模型過程中,調(diào)節(jié)參數(shù)。學(xué)習(xí)率不要太大.

3.對數(shù)據(jù)進(jìn)行交叉驗證

4.選擇適合訓(xùn)練集合測試集數(shù)據(jù)的百分比,選取合適的停止訓(xùn)練標(biāo)準(zhǔn),使對機(jī)器的訓(xùn)練在合適

5.在神經(jīng)網(wǎng)絡(luò)模型中,我們可以減小權(quán)重


07

問題:LR ?和 SVM ?的 聯(lián) 系與區(qū)別是什么?

答案:

1.都是分類算法

2.如果不考慮核函數(shù),LR 和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的

3.LR 和SVM都是監(jiān)督學(xué)習(xí)算法

4.LR 和SVM的損失函數(shù)不同

5.SVM 只考慮局部的邊界線附近的點(diǎn) ,LR 考慮全局,遠(yuǎn)離的點(diǎn)對邊界線的確定也起作用


08

問題:給你一個有1000列和1百萬行的訓(xùn)練數(shù)據(jù)集,這個數(shù)據(jù)集是基于分類問題的。經(jīng)理要求你來降低該數(shù)據(jù)集的維度以減少模型計算時間,但你的機(jī)器內(nèi)存有限 。你會怎么做?( 你 可以 自由 做 各 種實 際操作假設(shè) 。)

答案:

1.由于我們的RAM 很小,首先要關(guān)閉機(jī)器上正在運(yùn)行的其他程序,包括網(wǎng)頁瀏覽器等,以確保大部分內(nèi)存可以使用。

2.我們可以隨機(jī)采樣數(shù)據(jù)集。這意味著,我們可以創(chuàng)建一個較小的數(shù)據(jù)集,比如有1000 個變量和30 萬行,然后做計算。

3.為了降低維度,我們可以把數(shù)值變量和分類變量分開,同時刪掉相關(guān)聯(lián)的變量。對于數(shù)值變量,我們將使用相關(guān)性分析;對于分類變量,我們可以用卡方檢驗。

4.另外,我們還可以使用PCA(主成分分析),并挑選可以解釋在數(shù)據(jù)集中有最大偏差的成分。

5.利用在線學(xué)習(xí)算法,如VowpalWabbit(在 Python 中可用)是一個不錯的選擇。

6.利用Stochastic GradientDescent(隨機(jī)梯度下降法)建立線性模型也很有幫助。

7.我們也可以用我們對業(yè)務(wù)的理解來估計各預(yù)測變量對響應(yīng)變量的影響的大小。但是,這是一個主觀的方法,如果沒有找出有用的預(yù)測變量可能會導(dǎo)致信息的顯著丟失。


09

問題:給你 一個數(shù) 據(jù) 集,這個數(shù) 據(jù) 集有 缺 失值, 且 這些 缺 失值分布在離中值有1 ?個標(biāo) 準(zhǔn) 偏差的 范圍 內(nèi)。百 分之多少的數(shù) 據(jù) 不會 受 到 影響 ?為什么?

答案:約有 32%的數(shù)據(jù)將不受缺失值的影響。

因為,由于數(shù)據(jù)分布在中位數(shù)附近,讓我們先假設(shè)這是一個正態(tài)分布。我們知道,在一個正態(tài)分布中,約有68%的數(shù)據(jù)位于跟平均數(shù)(或眾數(shù)、中位數(shù))1 個標(biāo)準(zhǔn)差范圍內(nèi),那么剩下的約32%的數(shù)據(jù)是不受影響的。因此,約有 32%的數(shù)據(jù)將不受缺失值的影響。


10

問題:真陽性率和召回有什么關(guān) 系?寫出方程式。

答案:真陽性率=召回。它們有相同的公式(TP / TP + FN)。


11

問題:在k-means或kNN ,我們是用歐氏距離來計算最近的鄰居之間的距離。為什么不用曼哈頓距離?

答案:我們不用曼哈頓距離,因為它只計算水平或垂直距離,有維度的限制。另一方面,歐氏距離可用于任何空間的距離計算問題。

因為,數(shù)據(jù)點(diǎn)可以存在于任何空間,歐氏距離是更可行的選擇。

例如:想象一下國際象棋棋盤,象或車所做的移動是由曼哈頓距離計算的,因為它們是在各自的水平和垂直方向做的運(yùn)動。

原文鏈接:

https://blog.csdn.net/sinat_36458870/java/article/details/83716304

以下部分專供AI新手小白學(xué)員,莫爭莫搶,喜歡的話點(diǎn)贊關(guān)注

(1)什么是人工智能?

人工智能,是一個計算機(jī)科學(xué)領(lǐng)域,它強(qiáng)調(diào)智能機(jī)器的創(chuàng)造,它像人類一樣工作和反應(yīng)。

(2)什么是人工智能神經(jīng)網(wǎng)絡(luò)?

人工智能神經(jīng)網(wǎng)絡(luò)可以模擬生物大腦的工作方式,使機(jī)器能夠以與人類相同的方式進(jìn)行思考和學(xué)習(xí):使它們能像我們一樣識別語音、物體和動物。

(3)可以使用AI( 人工智能)的各個領(lǐng)域是什么?

人工智能可用于許多領(lǐng)域,如計算,語音識別,生物信息學(xué),人形機(jī)器人,計算機(jī)軟件,空間和航空等。

(4)哪種是AI不常用的編程語言 ?

Perl語言不是AI常用的編程語言。

(5)AI中的Prolog是什么?

在AI中,Prolog是一種基于邏輯的編程語言。

(6)解釋強(qiáng)強(qiáng)AI和弱弱AI之間的區(qū)別?

強(qiáng)大的AI聲稱計算機(jī)可以在與人類相等的水平上進(jìn)行思考,而弱AI只是預(yù)測一些類似于人類智能的功能可以合并到計算機(jī)中,使其成為更有用的工具。

(7)提到統(tǒng)計AI和經(jīng)典AI之間的區(qū)別?

統(tǒng)計AI更關(guān)注“歸納”思想,如給定一組模式,誘導(dǎo)趨勢等。經(jīng)典AI更關(guān)注作為一組約束給出的“演繹”思想,推導(dǎo)出一個結(jié)論等等。

(8)什么是備用,人工 ,復(fù)合和自然鍵 ?

備用密鑰:排除主密鑰所有候選密鑰稱為備用密鑰。

人工密鑰:如果沒有明顯的密鑰可以單獨(dú)使用或復(fù)合可用,那么最后的方法是,只需創(chuàng)建一個密鑰,通過為每個記錄或事件分配一個數(shù)字。這被稱為人工密鑰。

復(fù)合鍵:當(dāng)沒有單個數(shù)據(jù)元素唯一地定義構(gòu)造中的出現(xiàn)時,則集成多個元素以為構(gòu)造創(chuàng)建唯一標(biāo)識符稱為復(fù)合鍵。

自然鍵:自然鍵是存儲在構(gòu)造中的數(shù)據(jù)元素之一,并且用作主鍵。

(9)生產(chǎn)規(guī)則由什么組成?

生產(chǎn)規(guī)則包括一組規(guī)則和一系列步驟。

(10)哪種搜索方法占用的內(nèi)存較少?

“深度優(yōu)先搜索”方法占用的內(nèi)存較少。

(11)哪種方式可以解決游戲問題?

啟發(fā)式方法是解決游戲問題的最佳方式,因為它將使用基于智能猜測的技術(shù)。

例如,人與計算機(jī)之間的國際象棋,因為它將使用蠻力計算,查看數(shù)十萬個位置。

(12)A * 算法是基于哪種搜索方法?

A *算法基于最佳的第一搜索方法,因為它給出了優(yōu)化和快速選擇路徑的想法,并且所有特征都在A *算法中。

(13)混合貝葉斯網(wǎng)絡(luò)包含什么?

混合貝葉斯網(wǎng)絡(luò)包含離散和連續(xù)變量。

(14)什么是人工智能的代理?

任何通過傳感器感知其環(huán)境并通過效應(yīng)器對環(huán)境起作用的東西稱為代理。代理包括機(jī)器人,程序和人類等。

(15)部分訂單或計劃涉及什么?

在部分訂單計劃中,不是搜索可能的情況,而是搜索可能計劃的空間。這個想法是逐個構(gòu)建一個計劃。

(16)我們在構(gòu)建計劃時可以采取哪兩種不同的步驟 ?

a)添加運(yùn)營商(行動)

b)在運(yùn)算符之間添加排序約束

? (17)哪個屬性被認(rèn)為不是基于邏輯規(guī)則的系統(tǒng)的理想屬性?

“附件”被認(rèn)為不是基于邏輯規(guī)則的系統(tǒng)的理想屬性。

? (18)人工智能中的神經(jīng)網(wǎng)絡(luò)是什么?

在人工智能中,神經(jīng)網(wǎng)絡(luò)是生物神經(jīng)系統(tǒng)的仿真,它接收數(shù)據(jù),處理數(shù)據(jù)并根據(jù)算法和經(jīng)驗數(shù)據(jù)給出輸出。

??(19)什么時候認(rèn)為算法已完成?

當(dāng)一個算法存在時,如果算法以解決方案終止,則表示該算法已完成。

??(20)什么是啟發(fā)式函數(shù)?

啟發(fā)式函數(shù)在搜索算法中根據(jù)可用信息在每個分支步驟中對備選方案進(jìn)行排序,以決定遵循哪個分支。

??(21)規(guī)劃系統(tǒng)第三部分的功能是什么?

在計劃系統(tǒng)中,第三個組件的功能是檢測何時找到問題的解決方案。

??(22)AI中的“一般性”是什么?

通用性是衡量方法可以適應(yīng)不同應(yīng)用領(lǐng)域的容易程度。

??(23)什么是自上而下的解析器?

自上而下的解析器首先假設(shè)一個句子并連續(xù)預(yù)測較低級別的成分,直到寫入各個前終端符號。

??(24)提到廣度優(yōu)先搜索和人工智能中最佳搜索的區(qū)別?

這兩種策略非常相似。在最佳的第一次搜索中,我們根據(jù)評估函數(shù)擴(kuò)展節(jié)點(diǎn)。

而在廣度優(yōu)先搜索中,根據(jù)父節(jié)點(diǎn)的成本函數(shù)擴(kuò)展節(jié)點(diǎn)。

? (25)“ 人工智能”中的框架和腳本是什么?

框架是語義網(wǎng)絡(luò)的變體,它是在專家系統(tǒng)中呈現(xiàn)非過程知識的流行方式之一。

作為人工數(shù)據(jù)結(jié)構(gòu)的框架用于通過表示“刻板情況”將知識劃分為子結(jié)構(gòu)。腳本與幀類似,但必須對填充槽的值進(jìn)行排序。腳本用于自然語言理解系統(tǒng),以根據(jù)系統(tǒng)應(yīng)該理解的情況組織知識庫。

??(26)FOPL代表并解釋其在人工智能中的作用是什么?

FOPL 代表Predicate Logic 提供的First Order Predicate Logic

a)表達(dá)關(guān)于某些“世界”的斷言的語言

b)演繹設(shè)備的推理系統(tǒng),我們可以從這種斷言中得出結(jié)論

c)基于集合論的語義

??(27)FOPL的語言是什么?

a)一組常數(shù)符號

b)一組變量

c)一組謂詞符號

d)一組功能符號

e)邏輯連詞

f)通用量詞和存在限定符

g)平等的特殊二元關(guān)系

? (28)對于“ 人工智能”中的在線搜索 ,搜索代理通過交叉計算??

? 和行為進(jìn)行操作?

在在線搜索中,它將首先采取行動,然后觀察環(huán)境。

? (29)哪種搜索算法在在線搜索中使用有限的內(nèi)存 ?

RBFE 和 SMA *將通過使用有限的內(nèi)存來解決A *無法解決的任何問題。

? (30)在“ 人工智能”中你可以使用貝葉斯規(guī)則嗎 ?

在人工智能中,為了回答以一個證據(jù)為條件的概率查詢,可以使用貝葉斯規(guī)則。

? (31)為了構(gòu)建貝葉斯模型,需要多少項 ?

要在 AI 中構(gòu)建貝葉斯模型,需要三個術(shù)語; 它們是一個條件概率和兩個無條件概率。

? (32)在創(chuàng)建貝葉斯網(wǎng)絡(luò)時,節(jié)點(diǎn)與其前身之間的結(jié)果是什么?

在創(chuàng)建貝葉斯網(wǎng)絡(luò)時,節(jié)點(diǎn)與其前身之間的結(jié)果是節(jié)點(diǎn)可以在條件上獨(dú)立于其前任。

? (33)回答任何問題如何使用貝葉斯網(wǎng)絡(luò)?

如果貝葉斯網(wǎng)絡(luò)是聯(lián)合分布的代表,那么通過對所有相關(guān)聯(lián)合條目求和,它可以解決任何查詢。

? (34)什么將歸納方法與一階表示的力量結(jié)合起來?

歸納邏輯編程將歸納方法與一階表示的功能相結(jié)合。

? (35)在歸納邏輯編程中需要滿足什么?

歸納邏輯程序設(shè)計的目的是為假設(shè)提出一組句子,以滿足蘊(yùn)涵約束。

? (36)在自上而下的歸納學(xué)習(xí)方法中,有多少文字可用?它們都

? 是什么?

自上而下的歸納學(xué)習(xí)方法有三種文字:

a)謂詞

b)平等和不平等

c)算術(shù)文字

? (37)哪種算法反轉(zhuǎn)完整的分辨率策略 ?

“反向分辨率”反轉(zhuǎn)了完整的分辨率,因為它是學(xué)習(xí)一階理論的完整算法。

? (38)在語音識別中使用什么樣的信號 ?

在語音識別中,聲學(xué)信號用于識別單詞序列。

? (39)在語音識別中,哪個模型給出了每個單詞后面每個單詞的

? 概率 ?

Biagram 模型給出了在語音識別中每個單詞跟隨每個單詞的概率。

? (40)使用哪種算法求解時間概率推理?

為了解決時間概率推理,使用HMM(隱馬爾可夫模型),與轉(zhuǎn)換和傳感器模型無關(guān)。

??(41)什么是隱馬爾可夫模型(HMMs )?

隱馬爾可夫模型是一種無處不在的工具,用于建模時間序列數(shù)據(jù)或模擬序列行為。它們幾乎用于所有當(dāng)前的語音識別系統(tǒng)。

歡迎大家隨時評論區(qū)交流,有評必回~與大家一起學(xué)習(xí)前沿技術(shù),共同進(jìn)步~

5000字純干貨|人工智能筆試題目及答案的評論 (共 條)

分享到微博請遵守國家法律
阿鲁科尔沁旗| 屏山县| 兖州市| 汤阴县| 大关县| 庆城县| 西畴县| 阿巴嘎旗| 融水| 勐海县| 沙田区| 梨树县| 高碑店市| 阳城县| 西藏| 华坪县| 百色市| 湖口县| 石门县| 合肥市| 凤庆县| 砀山县| 瓮安县| 成安县| 永昌县| 仲巴县| 常宁市| 垣曲县| 申扎县| 桓台县| 汶上县| 韶关市| 深州市| 鄂州市| 哈巴河县| 京山县| 桓仁| 会昌县| 高碑店市| 宁陵县| 嘉峪关市|