使用大数据开发套件DatalDE进行数据开发时,可以创建不同的任务,如果某任务内需要多节点配合并包含表示依赖关系的连线,则该任务的类型是()。
A.工作流任务
B.多节点任务
C.多工作流任务
D.节点任务
A.工作流任务
B.多节点任务
C.多工作流任务
D.节点任务
第1题
A.阿里云大数据计算引擎,主要解决大数据存储和计算的问题
B.阿里云大数据开发套件,提供全面托管的工作流服务,一站式开发管理的界面
C.阿里云大数据平台,包含了一系列的大数据产品及服务
D.阿里云人工智能服务,包括智能语音、机器学习、智能图像等
第2题
A.分布式系统需要统一管理
B.MapReduce代码开发效率低下
C.使用SQL进行数据分析效率更高
D.大数据50%为报表类业务,需要仓库类大数据工具
第4题
A.任务B的实例都将依赖A与B同周期的前一个周期实例
B.任务B的实例都将依赖A昨天所有实例
C.任务B的实例都将依赖A昨天所有实例和A与B同周期的前一个周期实例
D.任务B的实例都将依赖A昨天所有实例和A与B同周期的前一个周期实例
第9题
A.Spark是一个基于内存迭代的框架
B.Spark是一个数据分析技术栈,包含了大数据的多种计算模式
C.Spark可以采用多种编程语言进行开发,比如Scal
D.Java
E.Spark计算过程中,数据不会落地到磁盘
第10题
A.建设集团、省统一规划、协同运营的集团大数据中心
B.统一进行数据标准化预处理、长期存储原始明细数据、汇总数据等各类数据
C.开展应用开发和数据分析服务,结合数据集市为总部/基地/专业公司以及各省提供服务
D.为有需求的省份的数据集市提供各类数据服务
第11题
apReduce或自定义函数(UDF)功能,需要依赖资源来完成。Dataworks中,可以通过数据开发面板的资源管理上传资源,目前支持的资源类型有:()。
A、jar、file、archive
B、jar、file、python
C、jar、archive、python
D、file、archive、python