首页 试题详情
单选题

28.以下关于ReLU函数说法错误的是:( )

AA.ReLU 函数的输出是非零中心化的, 给后一层的神经网络引入偏置偏移,会影响梯度下降的效率

BB.ReLU 神经元在训练时比较容易“死亡”. 在训练时, 如果参数在一次不恰当的更新后, 第一个隐藏层中的某个 ReLU 神经元在所有的训练数据上都不能被激活, 那么这个神经元自身参数的梯度永远都会是0, 在以后的训练过程中永远不能被激活.

CC. Leaky ReLU 在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题

DD. 三个选项均正确

正确答案:A (备注:此答案有误)

相似试题

  • 单选题

    28.以下关于ReLU函数说法错误:( )

    答案解析

  • 单选题

    关于函数以下说法错误( )

    答案解析

  • 多选题

    关于Python函数以下说法错误()。

    答案解析

  • 多选题

    Relu激活函数优点?

    答案解析

  • 单选题

    以下关于函数说法正确(  )。

    答案解析

热门题库