首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
广告
V2EX
›
机器学习
在神经网络中容易出现梯度爆炸的问题,有的地方说是可以用 relu 激活函数来解决,用起来也确实有效果,有点想不通这里面的原理是什么呢?
alixali
·
2018 年 10 月 23 日
· 3212 次点击
这是一个创建于 2644 天前的主题,其中的信息可能已经有所发展或是发生改变。
神经网络
relu
函数
梯度
2 条回复
1
66450146
2018 年 10 月 23 日
1
f'(x) = 1 就不会有 vanishing gradient 了😂
2
alixali
OP
2018 年 10 月 23 日
这个问题在输入数据维度高的时候,和网络层数多的时候出现了,更像是和网络的节点数有关系。
关于
·
帮助文档
·
自助推广系统
·
博客
·
API
·
FAQ
·
Solana
·
3893 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms ·
UTC 04:16
·
PVG 12:16
·
LAX 20:16
·
JFK 23:16
♥ Do have faith in what you're doing.
❯