下面模型训练的一些常用技巧中,哪些说法是错误的()?
A.如果训练样本量较大,可选用随机梯度下降(SGD),它考虑历史梯度信息,更容易跳出局部极小值点
B.在高度非凸的深度网络优化过程,主要难点是鞍点
C.用无监督数据作分层预训练(Layer-wisePre-train)有助于解决梯度饱和问题
D.Sigmoid交叉熵损失函数适合于多标签学习,每一维彼此独立
A.如果训练样本量较大,可选用随机梯度下降(SGD),它考虑历史梯度信息,更容易跳出局部极小值点
B.在高度非凸的深度网络优化过程,主要难点是鞍点
C.用无监督数据作分层预训练(Layer-wisePre-train)有助于解决梯度饱和问题
D.Sigmoid交叉熵损失函数适合于多标签学习,每一维彼此独立
第4题
A.让宝宝自己编故事
B.让宝宝指认书上的字
C.讲宝宝熟悉的故事时,留出一些词句让宝宝补充
D.中间问宝宝“后来呢”,让他说出后面的情节
第5题
A.目标检测常使用深度学习中卷积神经网络模型
B.训练好的目标检测算法可以用于边缘计算
C.机器视觉场景往往需要应用边缘计算
D.边缘计算就是一种人工智能
第7题
个人中心疗法的常用技巧,不包括下列哪项
A、共情的回应、尊重
B、自我表露
C、接纳、对峙
D、指导训练
E、分享、释意
第11题
A.用人单位哄抬学历
B.没有做到人尽其用
C.技巧没受到足够重视
D.对人才概念的错误认识