哈工大博士歷時(shí)半年整理的《Pytorch常用函數(shù)》手冊(cè)開(kāi)放下載!內(nèi)含200余個(gè)函數(shù)!
Pytorch是目前常用的深度學(xué)習(xí)框架之一,它憑借著對(duì)初學(xué)者的友好性、靈活性,發(fā)展迅猛,它深受學(xué)生黨的喜愛(ài),我本人也是使用的Pytorch框架。
比起 TF 的框架環(huán)境配置不兼容,和 Keras 由于高度封裝造成的不靈活,PyTorch 無(wú)論是在學(xué)術(shù)圈還是工業(yè)界,都相當(dāng)占優(yōu)勢(shì)。不夸張地說(shuō),掌握了 PyTorch ,就相當(dāng)于走上了深度學(xué)習(xí)、機(jī)器學(xué)習(xí)的快車道。
作為一名AI博主,收到小伙伴們最多的的問(wèn)題之一就是「有沒(méi)有關(guān)于Pytorch函數(shù)使用的學(xué)習(xí)資料?」
所以,我們小白學(xué)視覺(jué)團(tuán)隊(duì)花費(fèi)了幾個(gè)月,整理了這一份目前最全的Pytorch常用函數(shù)手冊(cè),內(nèi)含超200個(gè)常用函數(shù),是居家旅行、深度學(xué)習(xí)、發(fā)表論文必備工具。

本手冊(cè)中分為14章,從最基礎(chǔ)的創(chuàng)建張量開(kāi)始,逐步加深,涵蓋小伙伴們將會(huì)所有常用的函數(shù)。為了方便小伙伴們的查閱,我們特意推出了帶有書(shū)簽版的PDF供大家
添加小助手,并回復(fù) “QA“,即可獲取pdf電子版資源。
主要內(nèi)容

手冊(cè)中部分內(nèi)容展示:



PDF中含有更多精彩內(nèi)容……
除此之外,如果有粉絲想學(xué)習(xí)視頻版本的學(xué)習(xí)資料,我也為大家準(zhǔn)備了一份,強(qiáng)烈推薦大家學(xué)習(xí)。
課程通過(guò)講解和實(shí)戰(zhàn)操作,帶你從零開(kāi)始訓(xùn)練網(wǎng)絡(luò),做到獨(dú)立搭建和設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)(包括主流分類和檢測(cè)網(wǎng)絡(luò)),并進(jìn)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和推理(涉及PyTorch、Tensorflow、Caffe、Mxnet等多個(gè)主流框架),通過(guò)實(shí)戰(zhàn)讓你掌握各種深度學(xué)習(xí)開(kāi)源框架。

這份資料不一一展開(kāi),截取框架學(xué)習(xí)部分目錄大家感受下。
深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)
深度學(xué)習(xí)簡(jiǎn)介
基本的深度學(xué)習(xí)架構(gòu)
神經(jīng)元
激活函數(shù)詳解(sigmoid、tanh、relu等)
感性認(rèn)識(shí)隱藏層
如何定義網(wǎng)絡(luò)層
損失函數(shù)
?
推理和訓(xùn)練
神經(jīng)網(wǎng)絡(luò)的推理和訓(xùn)練
bp算法詳解
歸一化
Batch Normalization詳解
解決過(guò)擬合
dropout
softmax
手推神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程
?
從零開(kāi)始訓(xùn)練神經(jīng)網(wǎng)絡(luò)
使用python從零開(kāi)始實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)訓(xùn)練
構(gòu)建神經(jīng)網(wǎng)絡(luò)的經(jīng)驗(yàn)總結(jié)
?
深度學(xué)習(xí)開(kāi)源框架
pytorch
tensorflow
caffe
mxnet
keras
優(yōu)化器詳解(GD,SGD,RMSprop等
文中所展示內(nèi)容獲取方式:
1.一鍵三連+關(guān)注
2.后臺(tái)主動(dòng)留下痕跡:“學(xué)習(xí)”(重點(diǎn))
?