下面哪个模型不属于用来进行因果推理的模型()?
A.结构因果模型
B.因果图
C.有向有环图
D.贝叶斯网络
A.结构因果模型
B.因果图
C.有向有环图
D.贝叶斯网络
第1题
A.推理引擎(InferenceEngine)支持硬件指令集模型加速,然后进入模型优化环节
B.对OpenCV图像处理库进行指令集优化,显著提升性能
C.推理引擎将给定的模型转化为标准的IntermediateRepresentation(IR)
D.推理引擎使用插件架构,每个插件的API各不相同
第2题
A.exec_net.infer()方法是对推理结果的分析
B.exec_net.infer()方法的输入参数是模型推理的结果
C.exec_net.infer()方法的输出结果是模型的推理结果
D.exec_net.infer()方法直接输出分类标签值
第3题
A.模型优化器(modeloptimizer)
B.推理引擎(inferenceengine)
C.训练模型的开源平台,例如TensorFlow等
D.调用OpenVINO的用户程序
第5题
A.IR完全与硬件无关,只取决于神经网络的架构
B.model.xml中XML文件包含网络架构
C.model.bin文件包含权重参数
D.OpenVINO的推理除了支持IR格式外,还支持PB格式模型
第6题
A.模型优化会对模型进行修剪
B.多步操作可以融合成一步
C.模型优化的输出可以提升推理的性能
D.模型优化支持所有Tensorflow模型
第7题
A.读取模型优化器的中间文件进行处理
B.直接读入新数据到中间文件进行推理计算
C.可以使用多个硬件共同承担推理计算任务,提高效率
D.利用训练好的模型,支持用户做高效的机器视觉任务,支持边缘计算的时间要求
第10题
A.模型辨认
B.穷尽推理
C.假设与演绎方法
D.流程图算法推理
E.归纳法