最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

2.1 線性代數(shù)

2023-01-17 12:23 作者:梗直哥丶  | 我要投稿

多數(shù)人大一大二線性代數(shù)都學(xué)得暈暈乎乎的,教材往往編的十分枯燥,假如沒遇到好的老師,那基本上就是天書一般的存在。能學(xué)懂學(xué)透的同學(xué)是少數(shù),否則你也根本沒必要看這章內(nèi)容。等到學(xué)機(jī)器學(xué)習(xí)時(shí),基本上也忘的差不多了。雖然很多機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的書都有數(shù)學(xué)回顧這部分內(nèi)容,但遺憾的是往往也只是知識(shí)點(diǎn)堆砌,缺少順理成章的解釋。

怎樣才是好的面向深度學(xué)習(xí)的線性代數(shù)基礎(chǔ)知識(shí)復(fù)習(xí)呢?一句話,就是要講清楚二者之間的關(guān)系,為什么要學(xué)線數(shù),對(duì)深度學(xué)習(xí)的重要性在哪里,掌握哪些知識(shí)點(diǎn)就夠了?這將是咱們這章與眾不同的地方。

先問你個(gè)靈魂拷問:想過我們為什么要學(xué)線性代數(shù)嗎??實(shí)話說我也是花了好久才慢慢悟到一些答案的,因?yàn)檎娴臎]看到有什么書能把這個(gè)特別基本的問題講的很清楚的。一句話描述,它是用極簡(jiǎn)的數(shù)學(xué)語(yǔ)言表征我們面對(duì)的復(fù)雜世界。為啥這么說呢?數(shù)學(xué)家眼里的世界就是兩種:線性的和非線性的。多數(shù)情況下,真實(shí)的系統(tǒng)都是非線性的,但表達(dá)和處理起來太復(fù)雜,因此習(xí)慣性的先把它線性化,然后用線性代數(shù)來表示。這么說你可能還是感覺有點(diǎn)枯燥,那咱們用一個(gè)圖像處理的例子來說清楚。


一個(gè)美女在你身旁,那感覺絕對(duì)是“非線性的”,各種臉紅心跳的感覺,一言難盡是不是?可這樣顯然就缺少點(diǎn)兒數(shù)學(xué)思維了,計(jì)算機(jī)也根本處理不了。怎么記住這美妙的一刻呢?拍張照片呀!“咔嚓”的那一刻,就作了“線性化”。三維凸凹有致的身材,四維讓人心動(dòng)的眼神,五維醉人心脾的微笑,六維似曾相識(shí)的默契,七維....一下子都被壓縮到了一張簡(jiǎn)單的二維平面照片中。剩下的故事就是線性代數(shù)能夠表征的世界了,我們來看看。

整張照片是由一個(gè)個(gè)的像素點(diǎn)組成,每個(gè)像素點(diǎn)可以用紅綠藍(lán)三基色來表示,每個(gè)通道都是一個(gè)0-255的灰度值。來看看如何用線性代數(shù)的語(yǔ)言來描述這件事。每個(gè)灰度值叫做標(biāo)量(scalar)。每個(gè)像素點(diǎn)可以表示成RGB三個(gè)值,比如 [100,100,100],這叫向量。怎么表示很多個(gè)像素點(diǎn)呢?先單純看其中一個(gè)通道,比如紅色通道,畫出來就是一幅灰度圖像,用線性代數(shù)表示就是矩陣matrix。當(dāng)然,我們也可以把所有的行zigzag這樣“之”字形的連起來,表示為一個(gè)大的行向量或列向量。

那怎么同時(shí)表示RGB三個(gè)通道呢?一個(gè)矩陣是不是就不夠了?需要同時(shí)三個(gè)矩陣或者數(shù)組,這就是張量tensor的概念了。我們看到,從標(biāo)量、向量、矩陣、張量表達(dá)的東西越來越復(fù)雜。一幅簡(jiǎn)簡(jiǎn)單單的照片圖像中居然包含了這么多線性代數(shù)的基本概念。前面的三個(gè)都可以看成是張量的特例,標(biāo)量因此也叫零階張量,向量叫一階張量,矩陣叫二階張量。階數(shù)越高的張量表示的是越復(fù)雜的空間世界。除了RGB這三個(gè)特征外,你可以再疊加更多特征來描述這個(gè)美女,比如:皮膚白皙度,五官紋理誘人度等等,這時(shí)候就需要更高階的張量來表示了。

從真實(shí)世界的美女,到小小照片中能夠用線性代數(shù)表示的線性空間,這是人類科學(xué)史上的巨大成就。所有的美女,以及像美女一樣的物體、系統(tǒng)等等一切,都可以表示成為一個(gè)張量,進(jìn)而用簡(jiǎn)潔的字母來表示。這就是“線性+代數(shù)”的含義了。有了它,不光數(shù)學(xué)表示變得極簡(jiǎn),我們還能用計(jì)算機(jī)來處理,這就是為什么學(xué)習(xí)深度學(xué)習(xí)必須要學(xué)好線性代數(shù)的原因了。

如同中學(xué)講完代數(shù),還要學(xué)習(xí)數(shù)和數(shù)之間的運(yùn)算一樣,線性代數(shù)中的加減乘除也十分重要,這就是線性變換的概念。對(duì)剛才的美女圖像例子而言,這意味著我們可以對(duì)圖像進(jìn)行各種操作。比如加加減減就是變色,乘法就是變形等等。

好了,理解完畢,為了知識(shí)的完備,咱們還是少不了像其他人一樣八股啰嗦啰嗦,再稍微全面的梳理一下學(xué)好深度學(xué)習(xí)需要掌握的線性代數(shù)知識(shí)點(diǎn)。不過,哥給你的建議是,一是可以跳著讀,找自己不熟的復(fù)習(xí);二是從線性代數(shù)是用來線性化的表征世界的角度來重溫下面復(fù)習(xí)的這些概念,希望你會(huì)有完全不同的認(rèn)識(shí)和理解。實(shí)在想不通,就想想咱們剛舉的美女例子。

梗直哥建議:1.?以下內(nèi)容為了全面比較多,可以重點(diǎn)看黑體字提示,是和大家以前??吹臅?,比如Hinton《深度學(xué)習(xí)》、吳恩達(dá)深度學(xué)習(xí)課程、以及李沐等人《動(dòng)手學(xué)深度學(xué)習(xí)》比較大的區(qū)別。可能會(huì)比較個(gè)性化,但是可以幫助你快速理解,希望喜歡。2.?建議從代碼使用入手,不太有必要死記數(shù)學(xué)公式,幾乎所有運(yùn)算在numpy和pytorch中都有現(xiàn)成的API可供調(diào)用。難點(diǎn)是深刻理解各個(gè)概念的幾何和物理含義,否則你會(huì)特別混亂,實(shí)戰(zhàn)中看別人的眼花繚亂,但自己不知道什么時(shí)候該用哪個(gè)。

線性代數(shù)作為一個(gè)非常重要的數(shù)學(xué)分支,主要研究向量空間和線性變換。在機(jī)器學(xué)習(xí)中,線性代數(shù)的概念和工具被廣泛應(yīng)用于各種任務(wù),包括數(shù)據(jù)表示、特征工程、模型訓(xùn)練和優(yōu)化等。掌握必要的線性代數(shù)基礎(chǔ)概念幾乎是學(xué)好機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的必要條件。具體來說,理由如下:

首先,線性代數(shù)在數(shù)據(jù)表示方面有著重要的作用。例如,在機(jī)器學(xué)習(xí)中,向量是一種非常常見的數(shù)據(jù)表示方式。向量可以表示各種數(shù)據(jù),包括數(shù)值、文本和圖像。在機(jī)器學(xué)習(xí)中,向量常常被用來表示輸入數(shù)據(jù)和輸出數(shù)據(jù)。

其次,線性代數(shù)在特征工程方面也有著重要的作用。例如,在機(jī)器學(xué)習(xí)中,經(jīng)常需要對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,以提取有用的特征。這些特征可以幫助機(jī)器學(xué)習(xí)模型更好地學(xué)習(xí)數(shù)據(jù)。線性代數(shù)中的概念和工具可以用來計(jì)算向量間的相似性、計(jì)算向量的投影和求解線性方程組等,這些操作都可以幫助我們?cè)谔卣鞴こ踢^程中提取有效的特征。

此外,線性代數(shù)在模型訓(xùn)練和優(yōu)化方面也有著重要的作用。在機(jī)器學(xué)習(xí)中,我們常常使用線性回歸模型來預(yù)測(cè)連續(xù)型目標(biāo)變量。線性回歸模型的參數(shù)就是一個(gè)向量,包含了所有的權(quán)重和偏差。在訓(xùn)練過程中,需要不斷調(diào)整這些參數(shù),以使模型能夠更好地預(yù)測(cè)目標(biāo)變量。線性代數(shù)中的概念和工具可以用來計(jì)算向量的內(nèi)積、計(jì)算矩陣的行列式和逆矩陣等,這些操作都可以幫助我們?cè)谟?xùn)練過程中快速求解參數(shù)的最優(yōu)解。

舉個(gè)例子,假設(shè)現(xiàn)在有一個(gè)二維數(shù)據(jù)集,希望使用線性回歸模型來預(yù)測(cè)目標(biāo)變量 y。我們可以使用線性代數(shù)中的概念和工具來訓(xùn)練這個(gè)模型??梢詫?shù)據(jù)集中的每一個(gè)樣本表示為一個(gè)二維向量 (x1,x2)。使用向量的內(nèi)積來計(jì)算模型的參數(shù),具體來說,可以使用最小二乘法來求解下列線性方程組:

其中,w1, w2和b分別是模型的參數(shù),即權(quán)重和偏差。求解這個(gè)方程組后,就可以得到最優(yōu)的參數(shù)值,從而使用線性回歸模型來預(yù)測(cè)目標(biāo)變量。

咱們快速?gòu)?fù)習(xí)一下線性代數(shù)中最重要的一些基本概念,著重看看學(xué)好深度學(xué)習(xí)需要掌握到什么程度。

2.1.1?標(biāo)量

標(biāo)量也叫0D張量,一個(gè)標(biāo)量就是一個(gè)數(shù),它只有大小,沒有方向。在生活中,標(biāo)量可以體現(xiàn)在很多方面。例如,在進(jìn)行體重測(cè)量時(shí),可以使用標(biāo)量來表示體重。例如,使用標(biāo)量 70 來表示體重 70 公斤。

在 PyTorch 中,標(biāo)量可以使用標(biāo)準(zhǔn) Python 數(shù)字類型(如 int 和 float)表示。 下面是一個(gè)標(biāo)量的示例,其中 x 是一個(gè)浮點(diǎn)數(shù)標(biāo)量:

import?torch x = torch.tensor(3.14) print(x)

tensor(3.1400)

注意,標(biāo)量的形狀是一個(gè)空的大小元組 torch.Size([]),表示它不包含任何維度。 標(biāo)量在機(jī)器學(xué)習(xí)中可能用于表示單個(gè)預(yù)測(cè)值,損失值,學(xué)習(xí)率或其他單個(gè)數(shù)字。

2.1.2?向量及其運(yùn)算

向量也叫1D張量。向量只有一個(gè)軸,沿著行的方向,或者沿著列的方向。例如,一個(gè)4維向量,沿著軸有4個(gè)元素。在機(jī)器學(xué)習(xí)中,向量通常用來表示數(shù)據(jù)。

向量可以用來表示各種數(shù)據(jù),包括數(shù)值、文本和圖像。在機(jī)器學(xué)習(xí)中,向量常常被用來表示輸入數(shù)據(jù)和輸出數(shù)據(jù)。例如,在圖像分類任務(wù)中,輸入可以是一張圖像的像素?cái)?shù)據(jù),而輸出可以是圖像的類別。

向量還可以被用來表示機(jī)器學(xué)習(xí)模型的參數(shù)。例如,在線性回歸模型中,參數(shù)就是一個(gè)向量,包含了所有的權(quán)重和偏差。這些參數(shù)在訓(xùn)練過程中被不斷更新,以使模型能夠更好地預(yù)測(cè)目標(biāo)變量。 向量還可以被用來表示各種向量空間模型,例如詞嵌入模型。在詞嵌入模型中,每個(gè)單詞都會(huì)被表示為一個(gè)向量,這些向量可以用來表示單詞之間的關(guān)系。例如,在一個(gè)詞嵌入模型中,"man" 和 "woman" 兩個(gè)單詞的向量可能會(huì)很相似,因?yàn)樗鼈兌际侨祟惖拇~。

另外,向量還可以被用來表示向量空間模型的相似性,例如余弦相似性。在機(jī)器學(xué)習(xí)中,余弦相似性是一種常用的度量?jī)蓚€(gè)向量之間相似程度的方法。它的值越接近 1,則兩個(gè)向量越相似;值越接近 0,則兩個(gè)向量越不相似。

向量還可以被用來表示向量空間模型的線性變換。在機(jī)器學(xué)習(xí)中,可以通過矩陣乘法來對(duì)向量進(jìn)行線性變換。這種變換可以用來調(diào)整向量的方向和大小,從而使模型能夠更好地學(xué)習(xí)數(shù)據(jù)。 總之,向量在機(jī)器學(xué)習(xí)中扮演著非常重要的角色,它們可以用來表示各種數(shù)據(jù)和模型參數(shù),并且在計(jì)算中也起到了重要作用。

向量的運(yùn)算也是非常重要的??梢詫?duì)兩個(gè)向量進(jìn)行加法和減法運(yùn)算,也可以對(duì)一個(gè)向量進(jìn)行數(shù)乘和數(shù)除運(yùn)算。這些運(yùn)算可以用來調(diào)整向量的大小和方向,從而輔助機(jī)器學(xué)習(xí)模型的訓(xùn)練和預(yù)測(cè)。

此外,向量有許多性質(zhì),例如向量點(diǎn)積、向量叉積和向量的模長(zhǎng)。這些性質(zhì)可以幫助我們更好地理解向量的意義,并且在計(jì)算中也有著重要的作用。

在 PyTorch 中,可以使用 torch.Tensor 類來創(chuàng)建向量。例如,下面是如何創(chuàng)建一個(gè) 2D 向量:

import?torch?#?創(chuàng)建一個(gè)?2D?向量?vector = torch.Tensor([1, 2]) print(vector)??#?輸出: tensor([1., 2.])

tensor([1., 2.])

以下是向量的一些基本運(yùn)算。

梗直哥提示:加減法和數(shù)乘都比較簡(jiǎn)單,咱們就不講了。難點(diǎn)是乘法,比標(biāo)量運(yùn)算,也就是大家都熟悉的中學(xué)乘法一下子多了好幾種不同的運(yùn)算,經(jīng)常容易混,我會(huì)在講完后一起對(duì)比告訴你怎么好記。


#?內(nèi)積?a = torch.Tensor([1, 2]) b = torch.Tensor([3, 4]) c = torch.dot(a, b) print(c)??#?輸出: 11.0

tensor(11.)

import?torch?#?定義兩個(gè)向量?a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6])?#?計(jì)算外積?c = torch.cross(a, b) print(c)??#?輸出: tensor([-3, 6, -3])

tensor([-3, 6, -3])

注意,在 PyTorch 中,外積運(yùn)算只支持3維向量。如果傳入的向量維度不是3維,則會(huì)拋出異常。

#?向量的模長(zhǎng)?a = torch.Tensor([1,3, 4]) length = torch.norm(a) print(length)??#?輸出: 5.099

tensor(5.0990)


#?創(chuàng)建一個(gè)向量?vector = torch.Tensor([1, 2, 3])?#?計(jì)算向量的模長(zhǎng)?length = torch.norm(vector)?#?除以模長(zhǎng)得到單位向量?unit_vector = vector / length print(unit_vector)??#?輸出:tensor([0.26726124, 0.53452248, 0.8017837])

tensor([0.2673, 0.5345, 0.8018])

上面是向量的基本性質(zhì)和在 PyTorch 中如何使用這些性質(zhì)的簡(jiǎn)單示例。這些性質(zhì)在深度學(xué)習(xí)中都很常用,例如在計(jì)算神經(jīng)網(wǎng)絡(luò)的梯度時(shí),可以使用向量加法和數(shù)乘來計(jì)算損失函數(shù)的導(dǎo)數(shù);在計(jì)算神經(jīng)網(wǎng)絡(luò)的輸出時(shí),可以使用內(nèi)積來計(jì)算權(quán)重和輸入的點(diǎn)積;在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),可以使用向量的模長(zhǎng)來計(jì)算輸出結(jié)果的大小,并使用向量的單位向量來調(diào)整權(quán)重的方向。

梗直哥提示:從幾何意義角度理解這幾個(gè)概念的區(qū)別比較簡(jiǎn)單。內(nèi)積表示兩個(gè)向量a,b之間的夾角關(guān)系,大于0表示二者方向基本相同,夾角在0到90度之間;等于0表示二者垂直,也叫正交;小于0表示夾角在90到180度之間。外積或者說叉積表示垂直于向量a,b構(gòu)成的平面的法向量,從而構(gòu)建一個(gè)3D坐標(biāo)系。這在三維圖像學(xué)中非常重要。模的概念很簡(jiǎn)單,就是向量長(zhǎng)度。單位向量注意是方向。還有一種對(duì)應(yīng)元素相乘的情況,英文叫element-wise multiplication,也被稱為哈達(dá)瑪積(Hadamard product),這個(gè)咱們下面講矩陣時(shí)再說。

2.1.3?矩陣及其運(yùn)算

矩陣也叫2D張量, 有兩個(gè)軸,是一種二維數(shù)據(jù)結(jié)構(gòu)。矩陣是由多個(gè)數(shù)字組成的表格。每個(gè)數(shù)字在矩陣中都有一個(gè)對(duì)應(yīng)的行號(hào)和列號(hào)。例如,可以用二元組 (i,j) 來表示矩陣中第 i 行第 j 列的數(shù)字。來看看矩陣運(yùn)算。加減法和數(shù)乘都比較簡(jiǎn)單,咱們就不說了。重點(diǎn)講乘法。

import?torch?#?創(chuàng)建矩陣?A?A = torch.tensor([[1, 2], [3, 4]]) print(A)?#?創(chuàng)建矩陣?B?B = torch.tensor([[5, 6], [7, 8]]) print(B)?#?計(jì)算矩陣乘積?C = A * B?C = torch.mm(A, B) print(C)

tensor([[1, 2], [3, 4]]) tensor([[5, 6], [7, 8]]) tensor([[19, 22], [43, 50]])

在深度學(xué)習(xí)中,矩陣也被用來表示神經(jīng)網(wǎng)絡(luò)中的參數(shù)。例如,在進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí),會(huì)使用矩陣來表示卷積核。在使用循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行序列模型的訓(xùn)練時(shí),也會(huì)使用矩陣來表示循環(huán)神經(jīng)網(wǎng)絡(luò)的權(quán)值。

矩陣在深度學(xué)習(xí)中應(yīng)用廣泛,并且在計(jì)算機(jī)視覺、自然語(yǔ)言處理等領(lǐng)域也廣泛使用。例如,在進(jìn)行圖像分類時(shí),會(huì)使用矩陣來表示圖像的像素?cái)?shù)據(jù);在進(jìn)行文本分類時(shí),會(huì)使用矩陣來表示文本中的詞語(yǔ)。

/知乎/矩陣乘法核心思想

/知乎/矩陣乘法的本質(zhì)是什么?

代碼實(shí)現(xiàn)方面,在 PyTorch 中,可以使用以下函數(shù)來計(jì)算矩陣的內(nèi)積、外積和哈徳瑪積:

內(nèi)積(inner product):使用 torch.matmul 函數(shù)。 外積(outer product):使用 torch.ger 函數(shù)。 哈徳瑪積(Hadamard product):使用 torch.mul 函數(shù)。 下面是使用這些函數(shù)的例子:

注意:內(nèi)積是將兩個(gè)矩陣按矩陣乘法的規(guī)則相乘得到的矩陣。外積是將兩個(gè)向量每一位分別相乘得到的矩陣。哈徳瑪積是將兩個(gè)矩陣每一位分別相乘得到的矩陣。

在深度學(xué)習(xí)編程中,可以使用 NumPy 或 PyTorch 進(jìn)行矩陣運(yùn)算。這兩者都是 Python 的科學(xué)計(jì)算庫(kù),都提供了很多用于矩陣運(yùn)算的函數(shù)。NumPy 是一個(gè)用于科學(xué)計(jì)算的 Python 庫(kù),它提供了大量的數(shù)學(xué)函數(shù)和矩陣運(yùn)算函數(shù),可以方便地進(jìn)行向量化運(yùn)算,可以提高程序的運(yùn)行速度。PyTorch 是一個(gè)為深度學(xué)習(xí)而設(shè)計(jì)的張量庫(kù),它提供了與 NumPy 類似的矩陣運(yùn)算函數(shù),同時(shí)還支持 GPU 加速,可以更快地計(jì)算矩陣運(yùn)算。哪種庫(kù)更適合用于深度學(xué)習(xí)編程,取決于你的需求和偏好。如果你只需要進(jìn)行基本的矩陣運(yùn)算,且不需要使用 GPU 加速,則 NumPy 可能是一個(gè)不錯(cuò)的選擇。如果你需要進(jìn)行大量的矩陣運(yùn)算,或者希望利用 GPU 加速來提高運(yùn)算速度,則 PyTorch 可能是一個(gè)更好的選擇。

2.1.4?張量

張量是多維數(shù)組的抽象概括。它可以看作是向量和矩陣的推廣。張量可以是任意階數(shù)。比如向量就是一階張量,一行多列,或者一列多行;矩陣就是二階張量,含有多行、多列;三階張量,含有多行、多列,多頁(yè);以此類推...如果你對(duì)張量的概念理解起來有困難,可以看看這篇文章和視頻,一目了然。?/知乎/怎么通俗地理解張量?

張量的基本性質(zhì)包括:張量的維度,即張量的階數(shù)、軸數(shù)。張量的形狀,即每一維的大小。張量的數(shù)據(jù)類型,即張量中的數(shù)據(jù)的類型,比如float32、int64等。

在深度學(xué)習(xí)中,張量是基本的計(jì)算單位。我們使用張量來表示輸入數(shù)據(jù)、模型參數(shù)、模型的輸出等。深度學(xué)習(xí)框架(如PyTorch)提供了多種張量操作,使我們能夠高效地進(jìn)行深度學(xué)習(xí)的計(jì)算。

舉個(gè)例子,使用PyTorch編寫一個(gè)簡(jiǎn)單的深度學(xué)習(xí)模型,來分類MNIST手寫數(shù)字圖像。首先,我們需要定義模型的結(jié)構(gòu),并使用張量來表示模型的參數(shù):

在這個(gè)例子中,我們使用了多個(gè)張量來表示輸入數(shù)據(jù)、標(biāo)簽、模型的參數(shù)以及模型的輸出。我們還使用了張量操作(如model(inputs)和torch.nn.functional.cross_entropy)來計(jì)算模型的輸出和損失。

深度學(xué)習(xí)框架(如PyTorch)還提供了許多其他的張量操作,比如線性變換、卷積、池化等。我們可以使用這些操作來構(gòu)建復(fù)雜的深度學(xué)習(xí)模型,并通過計(jì)算梯度來訓(xùn)練模型參數(shù)。張量在深度學(xué)習(xí)中起著重要的作用,它是深度學(xué)習(xí)計(jì)算的基本單位。使用張量,我們可以高效地進(jìn)行深度學(xué)習(xí)的計(jì)算,并構(gòu)建復(fù)雜的深度學(xué)習(xí)模型。

此外,在深度學(xué)習(xí)中,張量還可以用于表示不同的數(shù)據(jù)類型,如圖像、文本、音頻等。比如,我們可以使用張量來表示一張彩色圖像,其中每個(gè)元素表示圖像的一個(gè)像素。我們也可以使用張量來表示一段文本,其中每個(gè)元素表示文本的一個(gè)詞或字符。在處理不同類型的數(shù)據(jù)時(shí),我們可能需要使用不同的操作來處理張量。比如,在處理圖像數(shù)據(jù)時(shí),我們可能會(huì)使用卷積操作來提取圖像的特征;在處理文本數(shù)據(jù)時(shí),我們可能會(huì)使用詞嵌入操作來將文本轉(zhuǎn)換為數(shù)值型表示。

總之,張量是深度學(xué)習(xí)中用于表示各種數(shù)據(jù)類型的基本單位。使用張量,我們可以高效地處理各種類型的數(shù)據(jù),并構(gòu)建能夠處理這些數(shù)據(jù)的深度學(xué)習(xí)模型。

同步更新:

Github: https://github.com/Gengzhige?

延伸學(xué)習(xí):機(jī)器學(xué)習(xí)必修課:十大經(jīng)典算法與Python實(shí)戰(zhàn)

https://www.bilibili.com/cheese/play/ss1380?spm_id_from=333.999.0.0?



2.1 線性代數(shù)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
赞皇县| 福海县| 曲靖市| 临沂市| 连云港市| 大悟县| 晋宁县| 乌兰浩特市| 杭锦旗| 塔河县| 塘沽区| 东光县| 清徐县| 兴隆县| 隆尧县| 博客| 临夏县| 鄂州市| 利川市| 天等县| 宜章县| 盘山县| 图片| 梁河县| 吴江市| 绩溪县| 朔州市| 朝阳区| 洛隆县| 正镶白旗| 沽源县| 博罗县| 当涂县| 辽中县| 文化| 资兴市| 沂源县| 西乌| 柳河县| 房山区| 河源市|