最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

Deep learning - Neural Network & Deep learning .03

2023-07-15 16:39 作者:Cy-se7en  | 我要投稿

2 Basics of Neural Network programming

2.4 Gradient Descent

Gradient Descent 梯度下降

對于邏輯回歸幾乎所有的初始化方法都有效,通常用0來進(jìn)行初始化,隨機(jī)初始化也有效

梯度下降法最終是收斂到全局最優(yōu)解或接近全局最優(yōu)解

使用 := 表示進(jìn)行迭代

dw表示w的導(dǎo)數(shù) ? dJ(w)表示J(w)的導(dǎo)數(shù) ? dJ(w)/dw表示J(w)對w求導(dǎo)

α表示 learning rate 學(xué)習(xí)率 即步長

當(dāng)dJ(w)/dw < 0時(shí),即導(dǎo)數(shù)為負(fù)數(shù),w會迭代增長;當(dāng)dJ(w)/dw > 0時(shí),即導(dǎo)數(shù)為正數(shù),w會迭代減小

在微積分中,偏微分符號?讀作round,其實(shí)就是d的花式寫法

在微積分中,當(dāng)J中有兩個(gè)以上的變量J(w,b),就是用偏導(dǎo)數(shù)符號?,當(dāng)J中只有一個(gè)變量時(shí)使用d

2.5 Derivatives

導(dǎo)數(shù)(derivative)=斜率(slope) 計(jì)算方法就是y軸偏移量比上x軸偏移量 即Δy/Δx = dy/dx = df(x)/dx = f'(x)

導(dǎo)數(shù)的理解可以是在x軸偏移之后,整個(gè)f(x)的偏移與x偏移的比值

2.6 More derivatives example


在這里log(a)的底是e,也可以寫作ln(a),lg(a)則表示以10為底

導(dǎo)數(shù)就是圖像的斜率,導(dǎo)數(shù)在函數(shù)不同的點(diǎn)有可能取值不同


Deep learning - Neural Network & Deep learning .03的評論 (共 條)

分享到微博請遵守國家法律
涪陵区| 巴楚县| 桓仁| 铜鼓县| 分宜县| 平舆县| 肇源县| 张家界市| 平舆县| 台南县| 镇远县| 安多县| 土默特左旗| 普陀区| 天台县| 永清县| 苍南县| 陈巴尔虎旗| 西贡区| 东至县| 高要市| 海阳市| 玉树县| 龙胜| 朝阳市| 丹江口市| 永川市| 阿拉善左旗| 梓潼县| 武清区| 和平区| 浪卡子县| 邢台县| 恩施市| 益阳市| 洛川县| 赞皇县| 荔浦县| 根河市| 睢宁县| 安溪县|