首页 试题详情
判断题

假设我们有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNORfunction)

A正确

B错误

正确答案:A (备注:此答案有误)

相似试题

  • 单选题

    假设我们一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?

    答案解析

  • 判断题

    假设我们一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如我们ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNORfunction)

    答案解析

  • 多选题

    Relu激活函数的优点?

    答案解析

  • 单选题

    卷积神经网络经常使用激活函数好几种:()、tanh函数ReLu函数、LeakyReLu函数、PReLu函数等。

    答案解析

  • 判断题

    假如现在个神经网络,激活函数ReLU,若使用线性激活函数代替 ReLU,该神经网络能表征 XNOR 函数

    答案解析

热门题库