在ALEXNET网络的学习中,下面哪些是它的重要改进功能
A: .以ReLU函数代替sigmoid和tanh函数
B: MaxPooling
C: dropout
D: 都是
A: .以ReLU函数代替sigmoid和tanh函数
B: MaxPooling
C: dropout
D: 都是
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 以下哪个激活函数能使得网络变得更加稀疏( ) A: Tanh()函数 B: Sigmoid()函数 C: 其余都可以 D: ReLu()函数
- 关于激活函数以下说法正确的是?() A: sigmoid函数在深度神经网络中梯度反向传递时容易导致梯度消失 B: tanh函数对于规模比较大的深度网络计算速度比较慢 C: ReLU函数计算速度和收敛速度都比tanh/sigmoid快 D: ReLU函数的正区间存在梯度消失的问题
- 以下哪些激活函数容易产生梯度消失问题?() A: ReLU B: Softplus C: Tanh D: Sigmoid