关注微信公众号《课帮忙》查题 关注微信公众号《课帮忙》查题 关注微信公众号《课帮忙》查题 关注微信公众号《课帮忙》查题 关注微信公众号《课帮忙》查题 关注微信公众号《课帮忙》查题 公告:维护QQ群:833371870,欢迎加入!公告:维护QQ群:833371870,欢迎加入!公告:维护QQ群:833371870,欢迎加入! 2022-06-08 全连接层常用的激活函数是sigmoid和tanh 全连接层常用的激活函数是sigmoid和tanh 答案: 查看 举一反三 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。 AlexNet的隐层神经元的激活函数采用Sigmoid或Tanh。 A: 正确 B: 错误 Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数 tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快