2017年12月22日星期五

第十三课:正向传播、反向传播和通过时间反向传播

时间:北京时间 12月23号星期六早11点到中午12点地点:将门斗鱼直播:http://ift.tt/2zhhEVB

在上节课给出的循环神经网络示例代码中,如果不做梯度裁剪,模型还能正常训练吗?为什么不能?为什么在前馈神经网络中不需要做梯度裁剪?

我们在第五课和第六课介绍了优化算法。使用梯度迭代模型参数的优化算法是训练神经网络的方法。但梯度的计算在神经网络中往往并不直观。这也对我们分析模型训练出现的问题造成了一定的难度。

为了更深刻理解神经网络的训练,特别是循环神经网络的训练,本节课中我们将一起探索深度学习有关梯度计算的重要概念:正向传播、反向传播和通过时间反向传播。通过2017年最后一课的学习,我们将进一步了解深度学习模型训练的本质,并激发改进循环神经网络的灵感。

本节课的安排:

[5min]:循环神经网络的梯度裁剪。[25min]:正向传播和反向传播。[30min]:循环神经网络的通过时间反向传播

Merry Christmas and Happy New Year

PS:忘了贴上第八课到第十二课通告了。大家可以前往 http://ift.tt/2zhRh1D 查看



via gluon - 知乎专栏 http://ift.tt/2BB17lt
RSS Feed

RSS8

IFTTT

没有评论:

发表评论

JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧!- InfoQ 每周精要848期

「每周精要」 NO. 848 2024/09/21 头条 HEADLINE JavaScript 之父联手近万名开发者集体讨伐 Oracle:给 JavaScript 一条活路吧! 精选 SELECTED C++ 发布革命性提案 "借鉴"Rust...