首页 试题详情
判断题

Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这意味着在神经网络中ReLU单元永远不会饱和。

A正确

B错误

正确答案:A (备注:此答案有误)

相似试题

  • 判断题

    Sigmoid神经网络中最常用到一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这意味着在神经网络中ReLU单元永远不会饱和。

    答案解析

  • 判断题

    传统神经网络常用激活函数sigmoid与tanh

    答案解析

  • 单选题

    卷积神经网络作为一种常见深度学习网络结构已被广泛接受,下列任务主流方法中没有用到卷积神经网络任务

    答案解析

  • 判断题

    sigmoid函数在深度神经网络中梯度反向时容易导致梯度消失。

    答案解析

  • 单选题

    设计为8层卷积神经网络AlexNet网络成功使用(),其效果远远地超过了Sigmoid函数。

    答案解析

热门题库