最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

chatgpt-AIGC-從數(shù)學(xué)開(kāi)始

2023-04-11 16:38 作者:ANDM2  | 我要投稿

向量

向量是由n個(gè)實(shí)數(shù)組成的一個(gè)n行1列(n*1)或一個(gè)1行n列(1*n)的有序數(shù)組;

點(diǎn)積

- 向量的點(diǎn)乘,也叫向量的內(nèi)積、數(shù)量積,對(duì)兩個(gè)向量執(zhí)行點(diǎn)乘運(yùn)算,就是對(duì)這兩個(gè)向量對(duì)應(yīng)位一一相乘之后求和的操作,點(diǎn)乘的結(jié)果是一個(gè)標(biāo)量。


點(diǎn)積幾何意義

- 點(diǎn)乘的幾何意義是可以用來(lái)表征或計(jì)算兩個(gè)向量之間的夾角,以及在b向量在a向量方向上的投影

叉乘

- 兩個(gè)向量的叉乘,又叫向量積、外積、叉積,叉乘的運(yùn)算結(jié)果是一個(gè)向量而不是一個(gè)標(biāo)量。并且兩個(gè)向量的叉積與這兩個(gè)向量組成的坐標(biāo)平面垂直。

叉乘的幾何意義

- 在3D圖像學(xué)中,叉乘的概念非常有用,可以通過(guò)兩個(gè)向量的叉乘,生成第三個(gè)垂直于a,b的法向量,從而構(gòu)建X、Y、Z坐標(biāo)系。


參考文檔

- https://blog.csdn.net/dcrmg/article/details/52416832? (向量點(diǎn)乘(內(nèi)積)和叉乘(外積、向量積)概念及幾何意義解讀)


矩陣

特征值和特征向量

-?由于矩陣可以看做是向量的集合,因此一個(gè)矩陣(m*n)可以看做是通過(guò)n個(gè)m維向量,形成的一個(gè)向量,因此可以轉(zhuǎn)換為通過(guò)特征向量構(gòu)建一個(gè)基本的m維坐標(biāo)系,通過(guò)特征值對(duì)這m維向量進(jìn)行伸縮 ,即歸一化 (normal)


svd分解 - 奇異值分解(Singular Value Decomposition,以下簡(jiǎn)稱SVD)

-?將任一矩陣(m*n) 拆解成三個(gè)矩陣 U , V ,R,其中U,V是正定矩陣(正定矩陣的逆矩陣=正定矩陣的轉(zhuǎn)置矩陣),通過(guò)svd分解,可以達(dá)到降維的效果,其中svd分解也是pca (主成分分析(Principal Component Analysis,簡(jiǎn)稱 PCA) 的前置條件?

?


參考文檔

- https://zhuanlan.zhihu.com/p/524126772? (從數(shù)學(xué)的角度淺談特征值和特征向量的求法)

- https://zhuanlan.zhihu.com/p/31386807 (四)矩陣的特征分解與奇異值分解(SVD))

- https://blog.csdn.net/OrdinaryMatthew/article/details/117948620 (PAC、SVD以及它們的聯(lián)系之充分?jǐn)?shù)學(xué)知識(shí)推導(dǎo))


機(jī)器學(xué)習(xí)的基本概念

張量

- n維矩陣的統(tǒng)稱


參考文檔

- https://zhuanlan.zhihu.com/p/48982978 (筆記 | 什么是張量(tensor)& 深度學(xué)習(xí))


激活函數(shù),損失函數(shù),動(dòng)量法的原理


參考文檔

- https://baijiahao.baidu.com/s?id=1574592152285995 (為了徹底理解深度學(xué)習(xí),我們到底需要掌握哪些數(shù)學(xué)知識(shí)呢)


神經(jīng)網(wǎng)絡(luò)demo

參考文檔

- https://blog.csdn.net/happytofly/article/details/80121851 (如何用70行Java代碼實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)算法)


chatgpt基本概念

- https://www.cnblogs.com/gczr/p/14693829.html (一文徹底搞懂a(chǎn)ttention機(jī)制)

- https://www.cnblogs.com/gczr/p/16345902.html (深入理解softmax函數(shù))

- https://www.cnblogs.com/gczr/p/16376393.html (深入理解transformer)

- https://www.cnblogs.com/gczr/p/15213833.html (統(tǒng)計(jì)學(xué)中P值的理解)


chatpgt參數(shù)微調(diào) -demo

- https://www.cnblogs.com/zhangxianrong/p/14953162.html (NLP(二十六):如何微調(diào) GPT-2 以生成文本)


論文

- https://zhuanlan.zhihu.com/p/619830415 ([論文筆記](méi) Segment Anything)

- Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism

- Segment Anything


chatgpt-AIGC-從數(shù)學(xué)開(kāi)始的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
阜平县| 西丰县| 恩施市| 宿迁市| 绍兴市| 宝应县| 灌阳县| 叙永县| 司法| 漳州市| 吕梁市| 呼图壁县| 富平县| 宁明县| 谢通门县| 曲麻莱县| 慈溪市| 门源| 永定县| 黄冈市| 泗阳县| 天台县| 普兰县| 玉门市| 怀宁县| 固镇县| 卢湾区| 林州市| 逊克县| 常熟市| 黎城县| 宝山区| 广宗县| 神木县| 盐池县| 遂溪县| 万宁市| 北辰区| 中山市| 延津县| 敦化市|