题目内容 (请给出正确答案)
[多选题]

AlexNet这项工作的贡献有:()。

A.使用修正的线性单元(ReLU)作为非线性激活函数

B.在训练的时候使用Dropout技术有选择地忽视单个神经元,以避免模型过拟合

C.覆盖进行较大池化,避免平均池化的平均化效果

D.使用GPUNVIDIAGTX580减少训练时间

查看答案
如搜索结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能会需要:
您的账号:
发送账号密码至手机
发送
更多“AlexNet这项工作的贡献有:()。”相关的问题

第1题

AlexNet使用ReLU激活函数的好处不包括以下哪个方面()?

A.梯度为0时神经元难以正常工作

B.缓解了梯度消失问题

C.提高l网络训练速度

D.开销小、计算快

点击查看答案

第2题

以下哪个是AlexNet的创新点()?

A.共享权重

B.dropout

C.Relu激活函数和重叠池化

D.双GPU训练(分组卷积)

点击查看答案

第3题

常用的激活函数有()。

A.Sigmoid函数

B.Tanh函数

C.ReLu函数

D.ReLo函数

点击查看答案

第4题

为了迎合芯片计算的特点,神经网络算法进行了相应的改造,以下不属于有利于神经网络算法在芯片上运行的改变是()。

A.使用较小的卷积,并统一卷积核的大小

B.使用定点计算的神经网络代替浮点运算

C.使用ReLU作为非线性激发函数

D.增加网络的深度

点击查看答案

第5题

下面关于激活函数的描述中,正确的说法是哪个()?

A.激活函数需要具有线性可微的特点

B.Sigmoid函数的导数是非零的,很容易计算

C.Sigmoid函数的输出值域是对称的

D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效

点击查看答案

第6题

以下关于ReLU函数说法错误的是:()。
A.ReLU函数的输出是非零中心化的,给后一层的神经网络引入偏置偏移,会影响梯度下降的效率

B.ReLU神经元在训练时比较容易“死亡”.在训练时,如果参数在一次不恰当的更新后,第一个隐藏层中的某个ReLU神经元在所有的训练数据上都不能被激活,那么这个神经元自身参数的梯度永远都会是0,在以后的训练过程中永远不能被激活.

C.LeakyReLU在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题

D.三个选项均正确

点击查看答案

第7题

以下关于神经网络说法正确的有()。

A.神经网络可以实现线性分类

B.神经网络可以实现非线性分类

C.神经网络的每层神经元激活函数值阈必须在[-1,1]

D.神经网络的每层神经元激活函数必须相同

点击查看答案

第8题

有关BP网络的说法,哪个是正确的()?

A.交叉熵也可以作为分类预测问题的损失函数

B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能

C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数

D.神经元的激活函数选择不影响神经网络的训练过程和最终性能

点击查看答案

第9题

工程优化设计问题的数学本质是求解()的极限值

A.多变量非线性

B.多变量线性函数

C.少变量非线性函数

D.多常量线性函数

点击查看答案

第10题

线性规划和非线性规划的区别是:线性规划目标函数为线性函数,非线性规划的目标函数为非线性函数。()
点击查看答案
热门考试 全部 >
相关试卷 全部 >
账号:
你好,尊敬的上学吧用户
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
谢谢您的反馈

您认为本题答案有误,我们将认真、仔细核查,
如果您知道正确答案,欢迎您来纠错

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
上学吧
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反上学吧购买须知被冻结。您可在“上学吧”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
上学吧
点击打开微信