Hadoop中Map Reduce组件擅长处理()场景的计算任务。
A.手动清除警告
B.启停服务实例
C.删除服务实例
D.查询历史监控
A.手动清除警告
B.启停服务实例
C.删除服务实例
D.查询历史监控
第2题
A.每个split作为一个map任务的输入
B.每个split作为一个Reduce任务的输入
C.每个split作为一个Reduce任务的输出
D.以上都不对
第3题
A.300300
B.3000300
C.600600
D.3000600
第4题
A.Partitioner负责控制map输出结果key的分割
B.Reporter用于MapReduce应用程序报告进度
C.OutputCollector收集Mapper或Reducer输出数据
D.Reduce的数目不可以是0
第5题
A.抽象类Mapper、接口IReducer
B.接口IMapper、接口IReducer
C.抽象类Mapper、抽象类Rreducer
D.接口IMapper、接口IReducer
第6题
A.Spark引进了弹性分布式数据集RDD(ResilientDistributedDataset)的抽象,容错性高
B.Spark提供的数据集操作类型不仅限于Map和Reduce,大致分为:Transformations和Actions两大类
C.Spark程序由Python语言进行编写,不支持Java语言进行的程序编写
D.Spark把中间数据放到内存中,迭代运算效率高
第7题
A、Hive最佳使用场景是大数据集的批处理作业
B、Hive可以实现在大规模集群上实现低延迟快速查询
C、Hive构建在基于静态批量处理的Hadoop之上,Hadoop通常有较高的延迟并且在提交作业和调度的时候需要大量的开销
D、Hive查询操作过程严格遵循HadoopMap Reduce的作用执行模型,Hive将用户的HiveSQL语句通过解释器转换为Map ReduceHadoop集群上
第8题
A.sqoop可以将HQL/SQL的执行结果导入到Oracle或者Hive
B.不能大于1M
C.sqoop使用参数-m(即--num-mappers)进行导数时,分布在每一个map上的数据是均匀的
D.sqoop将数据导入Oracle时遇到值的长度超长,sqoop会继续将正常的数据导入Oracle