20210703_王涵_基于深度學(xué)習(xí)的分子動(dòng)力學(xué)模擬


不同尺度的問題所需要的建模對(duì)象不同,但都是高維的(可用DNN建模):DFT--建模交換關(guān)聯(lián)泛函(無窮維函數(shù));MD--建模相互作用勢(shì)、能量(3N維);粗粒化MD--建模自由能A














截?cái)啵撼鞘请x子溶液里靜電相互作用等問題需要注意長(zhǎng)程相互作用,不然默認(rèn)認(rèn)為做截?cái)嗍呛侠淼?,認(rèn)為長(zhǎng)程相互作用可以適當(dāng)忽略

定理:任意交換不變的函數(shù)iff可以表示成如下形式(兩函數(shù),求和)



G對(duì)應(yīng)phi



由對(duì)能量的建模擴(kuò)展為對(duì)張量的建模












訓(xùn)練數(shù)據(jù)可能是原子數(shù)較少的小體系,而訓(xùn)練后的模型由可擴(kuò)展性得以計(jì)算大規(guī)模體系的能量和力從而用于下一步大規(guī)模分子動(dòng)力學(xué)模擬;前提是大規(guī)模體系中的局部構(gòu)型都能從訓(xùn)練集中學(xué)會(huì)



右上:通過排序分離不同化學(xué)類型的原子,以避免分支影響gpu效率
右下:加速gpu排序,做壓縮

這里不太懂

tensorcore 專門設(shè)計(jì)用于加速DL模型中的矩陣計(jì)算,but只有半精度(用精度換時(shí)間)
考察精度損失:


如何盡量減少損失:

(嵌入網(wǎng)絡(luò))用單精度存儲(chǔ),計(jì)算時(shí)用半精度,結(jié)果用單精度存儲(chǔ)。

擬合網(wǎng)絡(luò) 在上述基礎(chǔ)上將最后一個(gè)線性層退化為單精度

這邊又聽不太懂了

嵌入網(wǎng)絡(luò)32-64-128就夠了







