• 2022-06-08
    下面关于Relu和Sigmoid激活函数说法错误的是
    A: Relu激活函数相比于Sigmoid激活函数计算更简单
    B: Relu激活函数是一种线性的激活函数
    C: Sigmoid激活很容易出现梯度消失的情况
    D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生
  • B

    内容

    • 0

      关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误

    • 1

      以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数

    • 2

      哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数

    • 3

      下列______可以缓解梯度的消失问题且计算速度快。 A: sigmod激活函数 B: logistic激活函数 C: ReLU激活函数 D: Tanh激活函数

    • 4

      下面关于激活函数的描述中,正确的说法是哪个? A: 激活函数需要具有线性可微的特点 B: Sigmoid函数的导数是非零的,很容易计算 C: Sigmoid函数的输出值域是对称的 D: ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效