小象學(xué)院Python編程從入門到實(shí)踐
定義優(yōu)化函數(shù)
這次我們使用的是Adam優(yōu)化方法,同時(shí)指定學(xué)習(xí)率為0.001
In[16]
#使用Adam算法進(jìn)行優(yōu)化, learning_rate 是學(xué)習(xí)率(它的大小與網(wǎng)絡(luò)的訓(xùn)練收斂速度有關(guān)系)
optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.001) ?
opts = optimizer.minimize(avg_cost)
在上述模型配置完畢后,得到兩個(gè)fluid.Program:fluid.default_startup_program() 與fluid.default_main_program() 配置完畢了。
標(biāo)簽: