如果我们现有一个hadoop集群,默认存储文件3份,并且大文件会按照128M的数据块大小进行切割分散存储,在不修改默认配置的情况下存储200个每个200M的文本文件,请问最终会在集群中产生多少个数据块(包括副本)()
A.200
B.40000
C.400
D.1200
A.200
B.40000
C.400
D.1200
第4题
A.利用MapReduce计算模型
B.基于Hadoop集群
C.实现了一批开源的挖掘方法
D.采用了DFS分布式文件系统
第5题
A.系统内不适合多表复杂关联,需要在数据进入HADOOP前做好数据关联
B.适合非低延迟数据处理
C.集群支持分布式并行写入,并发写入速度快
D.大数据的关联能力弱
第6题
B.Hive可以实现在大规模数据集上实现低延迟快速的查询
C.Hive构建在基于静态批量处理的Hadoop之上,Hadoop通常有较高的延迟并且在作提交和调度的时候需要大量的开销
D.Hive查询操作过程严格遵循HadoopMapReduce的作用执行模型,Hive将用户的HiveQL语句通过解释器转换为MapReduceHadoop集群上
第7题
A.static
B.RIP
C.OSPF
D.这三种路由负载均衡
第8题
A.hadoop的文件API不是通用的,只用于HDFS文件系统
B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础
C.FileStatus对象存储文件和目录的元数据
D.FSDataInputStream是java、io、DataInputStream的子类
第9题
A.始终使用Memory作为临时存放查询的中间结果集
B.默认使用InnoDB作为临时存放查询的中间结果集
C.如果中间结果集含有TEXT或BLOB列的类型字段,则MySQL数据库会将其转换到MyISAM存储引擎表而存放到磁盘中
D.默认使用MyISAM作为临时存放查询的中间结果集
第10题
A.队列支持作业优先级调度
B.对所有的作业都一视同仁
C.简单、易于实现,同时也减轻了jobtracker的负担
D.按资源池(pool)来组织作业,并把资源公平的分到这些资源池里面