慨。
【……】系统忽然冒出浓浓的危机意识,【那个,宿主其实我也很有用的!要不让我开放全民好感度涨幅提示!对你有敌意的肯定是负数,到时候还没靠近你就能发现……】
“不,太吵。”徐静怡很果决摇头。
“这位同学?”站在台上的森田教授很睿智地看着她,语态很温和,“刚刚我的说法是有什么问题吗?你似乎对此有些不同的见解!”
徐静怡一懵。
系统,【糟糕了宿主!好像这位老大爷误会你刚刚摇头了!你别慌,他正在讲RNN和与传统神经网络区别!】
——原来已经讲到处理序列数据的循环神经网络。
这个用大白话来形容,就是机器人处理问题时的逻辑思维能力。举个例子比如“我实在是太冷了,准备去XXX”,根据前面的输入判断“XXX”很大可能就是“穿衣服”,这就是序列数据。
徐静怡快速扫了一眼黑板,“tanh和sigmoid激活函数的RNN如果遭遇梯度消失要如何是好?”
徐静怡起身,慢条斯理地开口:“tanh和sigmoid两端的梯度值都基本接近0,从求导公式可以看出有个连乘操作。而向量函数对向量求导结果为一个Jacobian矩阵,元素为每个点的导数,当矩阵中的值太大时,经过指数放大,则会产生梯度爆炸。可以设置一个梯度阈值来处理。另外梯度消失,可以用ReLU来替代tanh和sigmoid激活函数,或者用LSTM或GRU结构。”
Loading...
未加载完,尝试【刷新】or【关闭小说模式】or【关闭广告屏蔽】。
尝试更换【Firefox浏览器】or【Chrome谷歌浏览器】打开多多收藏!
移动流量偶尔打不开,可以切换电信、联通、Wifi。
收藏网址:www.sadfunsad.com
(>人<;)