首页 试题详情
判断题

将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题

A正确

B错误

正确答案:A (备注:此答案有误)

相似试题

  • 判断题

    Sigmoid激活函数改为ReLu有助于克服梯度消失问题

    答案解析

  • 多选题

    卷积神经网络常用的激活函数ReLU函数,相比于 Sigmoid等S型激活函数,它具有( )等特性

    答案解析

  • 多选题

    Relu激活函数的优点?

    答案解析

  • 单选题

    循环神经网最常用的激活函数是tanh,除了tanh还可以使用:①.relu②.sigmoid③.softmax④.完全不使用激活函数

    答案解析

  • 判断题

    Relu激活函数在零点可导

    答案解析

热门题库