__最合适作为多分类任务中输出层的激活函数。A.softmax函数B.logistic函数C.sigmoid函数D.ReLU函数()
A: 1
B: 2
C: 3
D: 4
A: 1
B: 2
C: 3
D: 4
举一反三
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- NNLM模型中,网络输出层采用的激活函数是什么?() A: Sigmoid B: Relu C: Softmax D: Tanhax
- 以下选项中不可以做为神经网络中激活函数的是( )。 A: ReLU B: Softmax C: Sigmoid D: 交叉熵函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU