chatgpt-AIGC-從數(shù)學(xué)開(kāi)始
向量
向量是由n個(gè)實(shí)數(shù)組成的一個(gè)n行1列(n*1)或一個(gè)1行n列(1*n)的有序數(shù)組;
點(diǎn)積
- 向量的點(diǎn)乘,也叫向量的內(nèi)積、數(shù)量積,對(duì)兩個(gè)向量執(zhí)行點(diǎn)乘運(yùn)算,就是對(duì)這兩個(gè)向量對(duì)應(yīng)位一一相乘之后求和的操作,點(diǎn)乘的結(jié)果是一個(gè)標(biāo)量。
點(diǎn)積幾何意義
- 點(diǎn)乘的幾何意義是可以用來(lái)表征或計(jì)算兩個(gè)向量之間的夾角,以及在b向量在a向量方向上的投影
叉乘
- 兩個(gè)向量的叉乘,又叫向量積、外積、叉積,叉乘的運(yùn)算結(jié)果是一個(gè)向量而不是一個(gè)標(biāo)量。并且兩個(gè)向量的叉積與這兩個(gè)向量組成的坐標(biāo)平面垂直。
叉乘的幾何意義
- 在3D圖像學(xué)中,叉乘的概念非常有用,可以通過(guò)兩個(gè)向量的叉乘,生成第三個(gè)垂直于a,b的法向量,從而構(gòu)建X、Y、Z坐標(biāo)系。
參考文檔
- https://blog.csdn.net/dcrmg/article/details/52416832? (向量點(diǎn)乘(內(nèi)積)和叉乘(外積、向量積)概念及幾何意義解讀)
矩陣
特征值和特征向量
-?由于矩陣可以看做是向量的集合,因此一個(gè)矩陣(m*n)可以看做是通過(guò)n個(gè)m維向量,形成的一個(gè)向量,因此可以轉(zhuǎn)換為通過(guò)特征向量構(gòu)建一個(gè)基本的m維坐標(biāo)系,通過(guò)特征值對(duì)這m維向量進(jìn)行伸縮 ,即歸一化 (normal)
svd分解 - 奇異值分解(Singular Value Decomposition,以下簡(jiǎn)稱SVD)
-?將任一矩陣(m*n) 拆解成三個(gè)矩陣 U , V ,R,其中U,V是正定矩陣(正定矩陣的逆矩陣=正定矩陣的轉(zhuǎn)置矩陣),通過(guò)svd分解,可以達(dá)到降維的效果,其中svd分解也是pca (主成分分析(Principal Component Analysis,簡(jiǎn)稱 PCA) 的前置條件?
?

參考文檔
- https://zhuanlan.zhihu.com/p/524126772? (從數(shù)學(xué)的角度淺談特征值和特征向量的求法)
- https://zhuanlan.zhihu.com/p/31386807 (四)矩陣的特征分解與奇異值分解(SVD))
- https://blog.csdn.net/OrdinaryMatthew/article/details/117948620 (PAC、SVD以及它們的聯(lián)系之充分?jǐn)?shù)學(xué)知識(shí)推導(dǎo))
機(jī)器學(xué)習(xí)的基本概念
張量
- n維矩陣的統(tǒng)稱
參考文檔
- https://zhuanlan.zhihu.com/p/48982978 (筆記 | 什么是張量(tensor)& 深度學(xué)習(xí))
激活函數(shù),損失函數(shù),動(dòng)量法的原理



參考文檔
- https://baijiahao.baidu.com/s?id=1574592152285995 (為了徹底理解深度學(xué)習(xí),我們到底需要掌握哪些數(shù)學(xué)知識(shí)呢)
神經(jīng)網(wǎng)絡(luò)demo
參考文檔
- https://blog.csdn.net/happytofly/article/details/80121851 (如何用70行Java代碼實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)算法)
chatgpt基本概念
- https://www.cnblogs.com/gczr/p/14693829.html (一文徹底搞懂a(chǎn)ttention機(jī)制)
- https://www.cnblogs.com/gczr/p/16345902.html (深入理解softmax函數(shù))
- https://www.cnblogs.com/gczr/p/16376393.html (深入理解transformer)
- https://www.cnblogs.com/gczr/p/15213833.html (統(tǒng)計(jì)學(xué)中P值的理解)
chatpgt參數(shù)微調(diào) -demo
- https://www.cnblogs.com/zhangxianrong/p/14953162.html (NLP(二十六):如何微調(diào) GPT-2 以生成文本)
論文
- https://zhuanlan.zhihu.com/p/619830415 ([論文筆記](méi) Segment Anything)
- Megatron-LM: Training Multi-Billion Parameter Language Models Using Model Parallelism
- Segment Anything