BP网络用梯度下降法对权值参数进行更新,假设参数w目前值为0.3,当前目标函数的梯度值是-0.2,学习率是0.4,那么参数w更新后的值应该是( )
A: 0.38
B: 0.22
C: 0.3
D: 0
A: 0.38
B: 0.22
C: 0.3
D: 0
A
举一反三
- 已知W=(0.5,0.2,a)T为权向量,则a的值为 A: 任意值 B: 0.2 C: 0.3 D: 0.4
- 在使用梯度下降法进行权重更新时,当梯度为()时,需要对权重w进行增加。 A: 正 B: 负 C: 零 D: 任意值
- 根据______步骤可完成一轮神经网络的训练。①设置模型参数初始值②将预测值与标签值比较,计算损失③正向计算神经网络的预测值④根据梯度下降法逐层反向更新网络模型参数⑤采用误差反向传播算法计算梯度信息 A: ①②③④⑤ B: ①③②⑤④ C: ①③②④⑤ D: ①②③⑤④
- 下列关于梯度下降法的描述错误的是? A: 梯度下降是利用一阶的梯度信息找到代价函数局部最优解的一种方法 B: 通常会先初始化一组参数值,然后在这个值之上,用梯度下降法去求出下一组的值。有于梯度是下降的,所以损失函数的值在下降。当迭代到一定程度,此时的参数取值即为要求的值。 C: 学习速率的选取很关键,如果学习速率过大,容易达不到极值甚至会发散,学习速率太小容易导致收敛时间过长 D: 学习速率不是超参数。
- 编程实现梯度下降法时,首先需要确定损失函数,然后对损失函数求偏导数来计算梯度,最后通过梯度来更新模型参数。
内容
- 0
某化验员对试样进行5次分析,其个别偏差为-0.3、+0.2、+0.4、-0.2、-0.1,绝对平均偏差的值为()。 A: 0 B: 0.2 C: 0.22 D: 0.24
- 1
关于人工神经网络训练的BP算法,描述错误的是( )。 A: 可以采用梯度下降法,由后向前逐层修正权值 B: 每次训练都需要计算实际输出与期望输出之间的误差 C: 学习率参数控制权值修正时的步长 D: 信息前向传输时,通过梯度不断修正权值
- 2
下面关于梯度下降法描述正确的是 A: 梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。 B: 批量梯度下降法是最原始的形式,它是指在每一次迭代时使用所有样本来进行梯度的更新。 C: 随机梯度下降法不同于批量梯度下降,是每次迭代使用一个样本来对参数进行更新。 D: 小批量梯度下降法是对批量梯度下降以及随机梯度下降的一个折中办法。更新参数时使用一部分训练样本。一般将训练样本集分成若干个batch,每个batch包含m个样本。每次更新都利用一个batch的数据,而非整个训练集。
- 3
利用地化参数可以判别储层含油级别,饱含油的S1/(S1+S2)值()。 A: >0.5 B: 为0.3~0.5 C: 为0.2~0.4 D: 为0.2~0.3
- 4
随机梯度下降算法是神经网络和回归算法中最常用的调参算法,对于单变量线性回归,假定参数为w和b(截距),写出随机梯度下降算法中w和b迭代更新的公式表示。